JP6156934B2 - Spatial synthesis system - Google Patents

Spatial synthesis system Download PDF

Info

Publication number
JP6156934B2
JP6156934B2 JP2014029072A JP2014029072A JP6156934B2 JP 6156934 B2 JP6156934 B2 JP 6156934B2 JP 2014029072 A JP2014029072 A JP 2014029072A JP 2014029072 A JP2014029072 A JP 2014029072A JP 6156934 B2 JP6156934 B2 JP 6156934B2
Authority
JP
Japan
Prior art keywords
space
video
conversation partner
shared object
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014029072A
Other languages
Japanese (ja)
Other versions
JP2015154430A (en
Inventor
直美 山下
直美 山下
英之 中西
英之 中西
一晶 田中
一晶 田中
良治 加藤
良治 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Osaka University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Osaka University NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014029072A priority Critical patent/JP6156934B2/en
Publication of JP2015154430A publication Critical patent/JP2015154430A/en
Application granted granted Critical
Publication of JP6156934B2 publication Critical patent/JP6156934B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、異なる空間にいる対話相手の存在感を同一空間内に再現する空間合成技術に関する。   The present invention relates to a space synthesis technique for reproducing the presence of a conversation partner in different spaces in the same space.

遠隔地にいる対話者間で相互に映像を提示するビデオチャットでは、音声のみで会話する場合(例えば、電話やボイスチャット)よりも対話相手の存在を身近に感じることができる。ビデオチャットにおいて、対話相手の存在感をより強化する方法が多く研究されている。例えば、対話相手が目の前にいるかのように映像を提示する方法が挙げられる。具体的には、大型のディスプレイで相手の姿を等身大で提示する方法、アイコンタクトが成立するようにカメラとディスプレイの位置関係を決定する方法、などである。   In a video chat in which video images are mutually presented between interlocutors in remote locations, the presence of the conversation partner can be felt closer than in the case of a conversation using only voice (for example, telephone or voice chat). In video chatting, many researches have been conducted on how to further enhance the presence of the conversation partner. For example, there is a method of presenting a video as if the conversation partner is in front of you. Specifically, there are a method of presenting the other person in a life-size manner on a large display, a method of determining the positional relationship between the camera and the display so that eye contact is established, and the like.

これに対して、対話相手の身体のみをクロマキー合成で切り抜き、ユーザの映像の隣に合成して提示する方法も提案されている(非特許文献1参照)。非特許文献1に記載の方法は、ユーザの目の前のディスプレイを鏡に見立て、あたかもユーザの隣に対話相手がいるかのように見せるものである。以下、非特許文献1に記載の方法を実装したシステムを、ミラーシステムと呼ぶ。   On the other hand, a method has also been proposed in which only the body of the conversation partner is cut out by chroma key composition and synthesized next to the video of the user (see Non-Patent Document 1). The method described in Non-Patent Document 1 looks like a mirror in the display in front of the user, as if there is a conversation partner next to the user. Hereinafter, a system that implements the method described in Non-Patent Document 1 is referred to as a mirror system.

Osamu Morikawa, Takanori Maesako, “HyperMirror: Toward Pleasant-to-use Video Mediated Communication System”, CSCW '98, 149-158, 1998.Osamu Morikawa, Takanori Maesako, “HyperMirror: Toward Pleasant-to-use Video Mediated Communication System”, CSCW '98, 149-158, 1998.

従来の方法は、視覚的に対話相手の存在を感じさせる方法であるため、ユーザはその他の感覚で相手の存在を感じることはできない。   Since the conventional method is a method for visually sensing the presence of a conversation partner, the user cannot feel the presence of the partner with other senses.

この発明の目的は、ビデオチャットによるコミュニケーションにおいて、異なる空間にいる対話相手の存在感を同一空間内に再現することができる空間合成技術を提供することである。   An object of the present invention is to provide a space synthesis technique capable of reproducing the presence of a conversation partner in a different space in the same space in video chat communication.

上記の課題を解決するために、この発明の空間合成システムは、複数の空間それぞれに少なくとも一人の人物と共有オブジェクトとが存在し、複数の空間それぞれに設置された空間合成装置を含む。空間合成装置は、人物と共有オブジェクトとが含まれる映像を取得する映像取得部と、人物の動作を追跡した動作情報を取得する動作情報取得部と、他の空間にいる人物を対話相手として、他の空間の空間合成装置が取得した映像から対話相手の映像を抽出し、対話相手の映像を映像取得部が取得した映像に合成して再生する映像再生部と、対話相手の動作情報に基づいて共有オブジェクトを動作させて対話相手の動作を再現する動作再現部と、を含む。   In order to solve the above-described problems, a space composition system of the present invention includes a space composition device in which at least one person and a shared object exist in each of a plurality of spaces, and are installed in each of the plurality of spaces. The space synthesis device includes a video acquisition unit that acquires a video including a person and a shared object, a motion information acquisition unit that acquires motion information that tracks the motion of the person, and a person in another space as a conversation partner. Based on the video playback unit that extracts the video of the conversation partner from the video acquired by the space synthesizer in another space, combines the video of the conversation partner with the video acquired by the video acquisition unit, and the operation information of the conversation partner And a motion reproduction unit that reproduces the behavior of the conversation partner by operating the shared object.

この発明によれば、異なる空間にいる対話相手の存在感を同一空間内に再現することができるため、対話相手の動作を把握することが容易になる。したがって、コミュニケーションを円滑にすることができる。   According to the present invention, since the presence of the conversation partner in different spaces can be reproduced in the same space, it becomes easy to grasp the operation of the conversation partner. Therefore, communication can be facilitated.

図1は、空間合成システムの使用方法の例を説明するための図である。FIG. 1 is a diagram for explaining an example of how to use the space synthesis system. 図2は、空間合成システムの機能構成を例示する図である。FIG. 2 is a diagram illustrating a functional configuration of the space synthesis system. 図3は、空間合成装置の機能構成を例示する図である。FIG. 3 is a diagram illustrating a functional configuration of the space synthesis device. 図4は、共有オブジェクトの機能構成を例示する図である。FIG. 4 is a diagram illustrating a functional configuration of the shared object. 図5は、共有オブジェクトを長椅子とした例を説明するための図である。FIG. 5 is a diagram for explaining an example in which a shared object is a chaise longue. 図6は、空間合成システムの処理フローを例示する図である。FIG. 6 is a diagram illustrating a processing flow of the space synthesis system.

この発明の空間合成技術では、ユーザの映像の隣に対話相手の身体を合成し、鏡のように映像を提示する非特許文献1に記載のミラーシステムにおいて、触覚や視覚、聴覚などの他の感覚を通じて対話相手の存在感を提示するシステムを追加する。対話相手の存在感を提示する機能を備えた物体(以下、共有オブジェクトと呼ぶ)は、ユーザと対話相手の合成映像の間に設置されており、対話相手の合成映像の動きに合わせて動作する。つまり、ユーザはこの共有オブジェクトの動作を通して対話相手の身体動作を感じることができる。従来のミラーシステムと比較し、対話相手の映像だけでなくその他の感覚を通じて対話相手が隣にいる感覚を再現できることが、この発明の革新的な点である。   In the spatial synthesis technology of the present invention, in the mirror system described in Non-Patent Document 1 that synthesizes the body of the conversation partner next to the video of the user and presents the video like a mirror, Add a system to present the presence of the conversation partner through the senses. An object having a function of presenting the presence of the conversation partner (hereinafter referred to as a shared object) is placed between the synthesized video of the user and the conversation partner, and operates in accordance with the movement of the synthesized video of the conversation partner. . That is, the user can feel the body movement of the conversation partner through the movement of the shared object. Compared to the conventional mirror system, it is an innovative point of the present invention that it is possible to reproduce the feeling that the conversation partner is adjacent not only through the image of the conversation partner but also through other senses.

図1を参照して、この発明の空間合成システムの使用方法の例を説明する。ユーザ61の正面に大型のディスプレイ5とカメラ3を設置し、ディスプレイ5にカメラ3で撮影した映像を表示する。映像の位置と大きさは、ディスプレイ5の場所に設置した鏡に映る像と同じになるように調整されている。映像内のユーザ6’1の隣には、遠隔地の対話相手62の身体のみの映像6’2をクロマキー合成等の映像合成技術を用いて重ね合わせる。対話相手62の合成映像に対応する位置とユーザ61の位置との間には遮蔽部7を設置する。遮蔽部7で隔てられた二つの空間は、それぞれユーザ61側の空間81、対話相手62側の空間82を示している。空間81にいるユーザ61は遮蔽部7によって対話相手側の空間82を直接見ることはできない。 With reference to FIG. 1, the example of the usage method of the space synthesis system of this invention is demonstrated. The large display 5 and the camera 3 is installed in front of the user 61, and displays the image captured by the camera 3 on the display 5. The position and size of the image are adjusted to be the same as the image reflected on the mirror installed at the place of the display 5. Next to the user 6 ′ 1 in the video, the video 6 ′ 2 of only the body of the remote conversation partner 6 2 is superimposed using video synthesis technology such as chroma key synthesis. Between the position of the user 61 corresponding to the combined image of the dialogue partner 6 2 installing the shielding portion 7. Two spaces separated by the shielding part 7, the space 81 of each user 61 side, shows the space 82 of the dialogue partner 6 2 side. User 6 1 being in the space 81 can not see the space 82 of the dialogue partner side directly by the shielding part 7.

二つの空間81、82を繋ぐように共有オブジェクト2を設置する。共有オブジェクト2はアクチュエータ等の駆動機構によって対話相手62の身体動作に合わせて動作するものである。ユーザ61は共有オブジェクト2を通して対話相手62の身体動作を触覚的に感じることができる。対話相手62の身体動作は、遠隔地に設置された対話相手62側の空間合成装置(図示せず)がモーショントラッキング技術やセンサ技術によって取得し、一般的な通信技術によって、対話相手62の映像6’2と共にユーザ61側の空間合成装置(図示せず)に伝達する。ユーザ61側の空間合成装置では、映像の合成と共有オブジェクト2の制御を行う。 The shared object 2 is installed so as to connect the two spaces 8 1 and 8 2 . Shared object 2 is intended to operate in accordance with the dialogue partner 6 2 of body movements by a drive mechanism such as an actuator. User 6 1 can feel the body movements dialogue partner 6 2 haptically through shared objects 2. Body movements dialogue partner 6 2, spatial compounding apparatus dialogue partner 6 2 side which is remotely located (not shown) is acquired by the motion tracking technology and sensor technology, the general communication technologies, dialogue partner 6 with 2 video 6 '2 is transmitted to the spatial compounding device of the user 61 side (not shown). In spatial synthesis device of the user 61 side performs control of the shared object 2 Synthesis of video.

図1の例では、共有オブジェクト2は二人掛けの長椅子であり、長椅子の中央に遮蔽部7を設置することで、一方の端に座るユーザ61から他方の端を見ることができないようにしている。共有オブジェクト2の他の例は、一本の手すりである。手すりの中央に遮蔽部7を設置し、一方の端によりかかるユーザ61から他方の端が見えないようにしておき、対話相手62の身体動作に合わせて手すりに振動を与えるようにすることもできる。 In the example of FIG. 1, a chaise lounge shared objects 2 loveseat, by installing a shielding portion 7 in the center of the chaise longue, from the user 61 sitting on one end so can not see the other end ing. Another example of the shared object 2 is a handrail. Established the shielding portion 7 in the center of the handrail, leave as a user 61 according the one end and the other end is not visible, it is to provide a vibration to the handrail in accordance with the body movements dialogue partner 6 2 You can also.

共有オブジェクト2は触覚のみならず、視覚や聴覚を通じて対話相手の存在感を提示するように構成することができる。例えば、共有オブジェクト2が長椅子であるとして、ユーザが長椅子の脇に立っている場合、もしくは、共有オブジェクト2が手すりであるとして、ユーザが手すりの前に立っている場合、長椅子の座面もしくは手すりを振動させることで、ユーザが共有オブジェクトに触れていなくとも、視覚もしくは聴覚を通じて対話相手の身体動作を感じることができる。   The shared object 2 can be configured to present the presence of the conversation partner not only through tactile sense but also through visual and auditory senses. For example, if the shared object 2 is a chaise longue and the user is standing by the chaise longue, or if the shared object 2 is a handrail and the user is standing in front of the handrail, the chaise longue or handrail By vibrating, it is possible to feel the body movement of the conversation partner through vision or hearing even when the user does not touch the shared object.

図1の例では、遮蔽部7は不透明な素材で作成された衝立である。衝立は、対話相手側の空間82にある共有オブジェクト2の動作がユーザ61から見えなくするための一例である。遮蔽部7はユーザ側の空間81から対話相手側の空間82が完全に見えなくなっていなくともよく、例えば、すりガラス等の半透明の素材で衝立を作成し、対話相手側の空間82の詳細な状態がわからないようになっていればよい。このとき、対話相手62の代わりにマネキン人形などを置いておき、すりガラス越しに人影が見えるようにすることで、ユーザの錯覚を助長することができる。また、マネキン人形の代わりに対話相手の身体動作に同期して動くアンドロイドなどを置くことで、さらに効果的にユーザの錯覚を助長することができる。 In the example of FIG. 1, the shielding part 7 is a partition made of an opaque material. Screen, the operation of the shared object 2 in the space 82 of the dialogue partner side is an example for invisible from the user 61. The shielding unit 7 does not have to completely hide the space 8 2 on the conversation partner side from the space 8 1 on the user side. For example, the screen 7 is made of a translucent material such as frosted glass to create a space 8 2 on the conversation partner side. It is only necessary that the detailed state of is not understood. At this time, aside and mannequin instead of dialogue partner 6 2, by such empty appear to frosted glass over, it is possible to promote the illusion of the user. In addition, by placing an Android that moves in synchronization with the body movement of the conversation partner instead of the mannequin doll, the illusion of the user can be further effectively promoted.

図1の例では、ユーザ61と対話相手62は一人ずつであり、共有オブジェクト2は二人掛けの長椅子であったが、ユーザ61と対話相手62はそれぞれ一人でなくともよい。例えば、ユーザ61が二人おり共有オブジェクト2を三人掛けの長椅子として、両端にユーザ61が座り、長椅子の中央に振動を与えることでユーザ61の間に座る対話相手62の動作を再現してもよい。 In the example of FIG. 1, the user 61 and the dialogue partner 6 2 are each alone, but shared object 2 was a chaise lounge two-seater may even user 61 and the dialogue partner 6 2 are not alone, respectively. For example, a shared object 2 Cage user 6 1 two as settee three seat, the user 61 sits across, sit between the user 61 by giving vibration to the center of the chaise dialogue partner 6 2 Operation May be reproduced.

[実施形態]
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
[Embodiment]
Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the component which has the same function in drawing, and duplication description is abbreviate | omitted.

図2を参照して、実施形態に係る空間合成システムの構成例を説明する。空間合成システムは、n(≧2)個の空間にそれぞれ設置されたn台の空間合成装置11,…,1nを含む。i(i=1,…,n)番目の空間8iには、少なくとも一人の人物6iと共有オブジェクト2iが存在する。以降の説明では、i番目の空間8iに存在する人物6iをユーザと呼び、j(j=1,…,n、i≠j)番目の空間8jに存在する人物6jを対話相手と呼ぶ。対話相手とは特定の一人ではなく、その他の空間にいるn-1人の人物それぞれを指しているものとする。人物6iは共有オブジェクト2iと少なくとも一点で接触している。 With reference to FIG. 2, the structural example of the space synthesis system which concerns on embodiment is demonstrated. The space synthesis system includes n space synthesis devices 1 1 ,..., 1 n installed in n (≧ 2) spaces. In the i (i = 1,..., n) -th space 8 i , at least one person 6 i and a shared object 2 i exist. In the following description, it referred to as a user person 6 i existing in i-th space 8 i, j (j = 1 , ..., n, i ≠ j) th interaction person 6 j present in the space 8 j opponent Call it. It is assumed that the conversation partner is not a specific person but each of n-1 persons in other spaces. The person 6 i is in contact with the shared object 2 i at least at one point.

空間合成装置11,…,1nはそれぞれ通信網9に接続される。通信網9は、各空間合成装置11,…,1nが相互に通信可能なように構成されていればよく、例えば、アナログもしくはデジタルの公衆電話網もしくは構内電話網などの回線交換方式の通信網、又はインターネットやLAN(Local Area Network)、WAN(Wide Area Network)などのパケット交換方式の通信網で構成することができる。 The space synthesis devices 1 1 ,..., 1 n are connected to the communication network 9. The communication network 9 only needs to be configured so that the spatial compositing devices 1 1 ,..., 1 n can communicate with each other. For example, a circuit switching system such as an analog or digital public telephone network or a private telephone network is used. The communication network or a packet switching communication network such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network) can be used.

図3を参照して、空間合成装置1の構成例を説明する。空間合成装置1は、映像取得部10、動作情報取得部12、映像再生部14、動作再現部16、共有オブジェクト2、カメラ3、センサ4及びディスプレイ5を含む。空間合成装置1は、例えば、中央演算処理装置(Central Processing Unit、CPU)、主記憶装置(Random Access Memory、RAM)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。空間合成装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。空間合成装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。   A configuration example of the space synthesis device 1 will be described with reference to FIG. The space synthesis device 1 includes a video acquisition unit 10, a motion information acquisition unit 12, a video playback unit 14, a motion playback unit 16, a shared object 2, a camera 3, a sensor 4, and a display 5. The space synthesizing device 1 is a special configuration in which a special program is read into a known or dedicated computer having a central processing unit (CPU), a main storage device (Random Access Memory, RAM), and the like. Device. For example, the space synthesis device 1 executes each process under the control of the central processing unit. The data input to the space synthesizer 1 and the data obtained in each process are stored in, for example, the main storage device, and the data stored in the main storage device is read out as necessary and used for other processing. Is done.

カメラ3は、例えば、被写体とする人間や物体の映像を撮影するビデオカメラである。例えば、撮影可能な解像度や映像の記録媒体、マイクロフォンの有無、デジタルアナログの別など、カメラ3の備えるべき機能には制限はなく、一般的に動画が撮影可能なビデオカメラであれば任意のものを利用することができる。   The camera 3 is, for example, a video camera that captures images of a person or an object as a subject. For example, there are no restrictions on the functions that the camera 3 should have, such as the resolution that can be taken, the recording medium of the video, the presence / absence of a microphone, and whether it is a digital analog or the like. Can be used.

センサ4は、例えば、対象物の三次元座標を逐次的に収集するモーションキャプチャセンサである。センサ4により映像の被写体の三次元座標を収集することで、被写体の位置とその位置の変化を取得することができる。センサ4として利用できるモーションキャプチャセンサは、例えば、「日本マイクロソフト株式会社、“Xbox 360 - Kinect”、[online]、[平成26年1月27日検索]、インターネット<URL:http://www.xbox.com/ja-JP/kinect>(参考文献1)」に記載されている。   The sensor 4 is, for example, a motion capture sensor that sequentially collects three-dimensional coordinates of an object. By collecting the three-dimensional coordinates of the subject of the image by the sensor 4, the position of the subject and the change in the position can be acquired. Motion capture sensors that can be used as the sensor 4 are, for example, “Japan Microsoft Corporation,“ Xbox 360-Kinect ”, [online], [searched on January 27, 2014], Internet <URL: http: // www. xbox.com/ja-JP/kinect> (Reference 1) ”.

カメラ3及びセンサ4は、図3に示すように、空間合成装置1に接続される外部の周辺機器であってもよいし、空間合成装置1の筺体内に内蔵されていてもよい。また、カメラ3とセンサ4は、図3に示すように、別個の機器として構成してもよいし、カメラ3とセンサ4を一つの筺体内に組み込んだ一つの機器として構成してもよい。   As shown in FIG. 3, the camera 3 and the sensor 4 may be external peripheral devices connected to the space synthesis device 1, or may be incorporated in the housing of the space synthesis device 1. Further, as shown in FIG. 3, the camera 3 and the sensor 4 may be configured as separate devices, or may be configured as one device in which the camera 3 and the sensor 4 are incorporated in one casing.

ディスプレイ5は、例えば、空間合成装置1のカメラ3で撮影した映像を再生する画面を有する大型液晶ディスプレイである。ディスプレイ5は、図3に示すように、空間合成装置1に接続される外部の周辺機器であってもよいし、空間合成装置1の一平面に組み込まれていてもよい。例えば、表示可能な解像度やスピーカーの有無、デジタルアナログの別など、ディスプレイ5の備えるべき機能には制限はなく、カメラ3で撮影された映像が再生可能なディスプレイであれば任意のものを利用することができる。   The display 5 is, for example, a large liquid crystal display having a screen for playing back images taken by the camera 3 of the space synthesis device 1. As shown in FIG. 3, the display 5 may be an external peripheral device connected to the space synthesis device 1, or may be incorporated in one plane of the space synthesis device 1. For example, there are no restrictions on the functions that the display 5 should have, such as displayable resolution, presence / absence of speakers, digital analog, and the like, and any display can be used as long as it can play back images captured by the camera 3. be able to.

図4を参照して、共有オブジェクト2の構成例を説明する。共有オブジェクト2は、例えば、アクチュエータ20、モータドライバ22、IOボード24、電源26を含む。アクチュエータ20はモータドライバ22を介してIOボード24へ接続される。IOボード24は空間合成装置1の動作再現部16へ接続される。電源26は、モータドライバ22へ接続され、電力を供給する。IOボード24は、シリアル通信により動作再現部16から入力される制御信号に基づいて、モータドライバ22を操作する。モータドライバ22は、IOボード24からの制御信号に基づいて、アクチュエータ20へ入力する電圧や電流を制御する。アクチュエータ20は、モータドライバ22の制御の下で、共有オブジェクト2の動作を制御する。   A configuration example of the shared object 2 will be described with reference to FIG. The shared object 2 includes, for example, an actuator 20, a motor driver 22, an IO board 24, and a power source 26. The actuator 20 is connected to the IO board 24 via the motor driver 22. The IO board 24 is connected to the motion reproduction unit 16 of the space synthesis device 1. The power source 26 is connected to the motor driver 22 and supplies power. The IO board 24 operates the motor driver 22 based on a control signal input from the operation reproduction unit 16 by serial communication. The motor driver 22 controls the voltage and current input to the actuator 20 based on the control signal from the IO board 24. The actuator 20 controls the operation of the shared object 2 under the control of the motor driver 22.

図5を参照して、共有オブジェクト2を長椅子として実装した場合を例として、具体的な構成例を説明する。長椅子では、隣に人が座ったときや隣の人が足を組み替えたとき、貧乏揺すりをしたときなどに、長椅子が振動することで隣の人の身体動作を感じることができる。この長椅子の振動を共有オブジェクトで再現する。   With reference to FIG. 5, a specific configuration example will be described with an example in which the shared object 2 is implemented as a chaise longue. In a chaise lounge, when a person sits next to you, when the neighbor changes his legs, or when he shakes poorly, the chaise lounge can vibrate and feel the body movement of the neighbor. This chaise longue vibration is reproduced with a shared object.

長椅子として実装された共有オブジェクト2は、座面21及び四本以上の脚23を含み、少なくとも一本の脚23には磁性体25、弾性体27及び電磁石29が組み込まれている。電磁石29に電流を流すと磁力が発生し、磁性体25が電磁石29の方向へ引っ張られる結果、長椅子の座面21が脚23の方へ傾斜する。例えば、合成映像中の対話相手6jが座る動作をしたとき、電磁石29への電源をONにすることで、ユーザ6iはあたかも隣に対話相手6jが座ったかのように感じられる。また、対話相手6jが貧乏ゆすりをした際には、電磁石29への電源をONとOFFを周期的に繰り返すことで座面21が小刻みに振動することになる結果、ユーザ6iはあたかも隣に座っている人が貧乏ゆすりをしているように感じられる。 The shared object 2 implemented as a chaise longue includes a seat surface 21 and four or more legs 23, and a magnetic body 25, an elastic body 27, and an electromagnet 29 are incorporated in at least one leg 23. When a current is passed through the electromagnet 29, a magnetic force is generated, and the magnetic body 25 is pulled in the direction of the electromagnet 29. As a result, the seat surface 21 of the chaise lounge tilts toward the legs 23. For example, when the conversation partner 6 j in the composite video is seated, the user 6 i feels as if the conversation partner 6 j is sitting next to the electromagnet 29 by turning on the power to the electromagnet 29. Further, when the dialogue partner 6 j has a poor extortion, as a result of the seat surface 21 by repeating the supply to the electromagnet 29 the ON and OFF periodically is to vibrate small increments, the user 6 i is as if next It feels like the person sitting on the bed is poverty.

図6を参照しながら、実施形態に係る空間合成システムが実行する空間合成方法の処理フローの一例を、手続きの順に従って説明する。   With reference to FIG. 6, an example of the processing flow of the spatial synthesis method executed by the spatial synthesis system according to the embodiment will be described in the order of procedures.

以下の説明では、i番目の空間8iに存在する人物6iをユーザとし、j番目の空間8jに存在する人物6jを対話相手とし、空間8iに設置された空間合成装置1iの動作を中心として説明する。対話相手の存在する空間8jは一つの空間とは限らず、複数の空間であってもよい。複数の空間に対話相手がいる場合であっても、他の空間8jに設置された空間合成装置8jの動作はいずれも同様である。 In the following description, the user person 6 i existing in i-th space 8 i, j-th space 8 and the dialogue partner person 6 j present in j, spatial compounding device 1 i installed in the space 8 i The operation will be mainly described. The space 8 j where the conversation partner exists is not limited to one space, and may be a plurality of spaces. Even when there are dialogue partners in a plurality of spaces, the operations of the space synthesis device 8 j installed in the other space 8 j are the same.

ステップS10iにおいて、空間合成装置1iの映像取得部10iは、空間合成装置1iのカメラ3iを用いて、空間8iに存在するユーザ6iと共有オブジェクト2iとが含まれる映像を取得する。取得した映像は、映像再生部14へ入力される。 In step S10 i, the video acquisition unit 10 i of the spatial synthesis device 1 i may video included with the camera 3 i spatial synthesizer 1 i, and the user 6 i present in the space 8 i and the shared object 2 i is To get. The acquired video is input to the video playback unit 14.

ステップS10jにおいて、空間合成装置1jの映像取得部10jは、空間合成装置1jのカメラ3jを用いて、空間8jに存在する対話相手6jと共有オブジェクト2jとが含まれる映像を取得する。取得した映像は、空間合成装置1iへ、通信網9を介して送信される。 In step S10 j, the video acquisition unit 10 j of the spatial synthesis unit 1 j, using the camera 3 j of the spatial synthesis unit 1 j, includes a dialogue partner 6 j present in the space 8 j and the shared object 2 j Get video. The acquired video is transmitted to the space synthesis device 1 i via the communication network 9.

ステップS12jにおいて、空間合成装置1jの動作情報取得部12jは、空間合成装置1jのセンサ4jを用いて、対話相手6jの動作を追跡した動作情報を取得する。取得した動作情報は、空間合成装置1iへ、通信網9を介して送信される。撮影した映像は送信に際して、転送効率を高めるために適切なデータフォーマットで符号化し圧縮しても構わない。 In step S12 j, the operation information acquiring unit 12 j of the spatial synthesis unit 1 j, using the sensor 4 j spaces synthesizer 1 j, acquires operation information to track the operation of the dialogue partner 6 j. The acquired motion information is transmitted to the space synthesis device 1 i via the communication network 9. The captured video may be encoded and compressed in an appropriate data format in order to increase the transfer efficiency during transmission.

ステップS14iにおいて、空間合成装置1iの映像再生部14iは、空間合成装置1jが取得した映像から対話相手6jの映像を抽出する。続いて、対話相手6jの映像を映像取得部10iが取得した映像中に合成して、合成された映像をディスプレイ5iへ再生する。 In step S14 i, the video reproducing section 14 i of the spatial synthesis unit 1 i extracts the image of the dialogue partner 6 j from video spatial synthesis unit 1 j is acquired. Subsequently, the video of the conversation partner 6 j is combined with the video acquired by the video acquisition unit 10 i , and the combined video is reproduced on the display 5 i .

ステップS16iにおいて、空間合成装置1iの動作再現部16は、対話相手6jの動作情報に基づいて共有オブジェクト2iを動作させて対話相手6jの動作を再現する。 In step S16 i , the motion reproduction unit 16 of the space synthesis device 1 i reproduces the operation of the conversation partner 6 j by operating the shared object 2 i based on the operation information of the conversation partner 6 j .

従来のミラーシステムは、対話相手が隣にいる感覚を視覚的に再現するものであった。しかし、隣を見てしまうと対話相手がそこに存在しないことは明確であり、物理的に相手の存在を感じることはできなかった。これに対し、この発明の空間合成システムは、衝立によって遮られた隣の空間に対話相手がいる感覚を再現するものであり、二つの空間を繋ぐ共有オブジェクトによって、視覚だけでなく触覚でも対話相手の存在を感じることができる。   The conventional mirror system visually reproduces the feeling that the conversation partner is next to it. However, when I looked at the neighbor, it was clear that there was no dialogue partner there, and I could not physically feel the existence of the other party. On the other hand, the spatial composition system of the present invention reproduces the feeling of having a conversation partner in the adjacent space blocked by the screen, and the conversation partner is not only visually but also tactile by a shared object that connects the two spaces. You can feel the existence of

この発明の空間合成技術は、遠隔地の対話相手の存在をユーザ側の空間に合成し、相手の存在をより身近に感じさせるものである。この発明を用いた遠隔コミュニケーションにより対面環境でのコミュニケーションを代替することによって、移動にかかるコストやエネルギーを削減することができる。   The space synthesis technique of the present invention combines the presence of a remote conversation partner in the user's space and makes the presence of the partner more familiar. By substituting communication in a face-to-face environment by remote communication using this invention, the cost and energy required for movement can be reduced.

この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   The present invention is not limited to the above-described embodiment, and it goes without saying that modifications can be made as appropriate without departing from the spirit of the present invention. The various processes described in the above embodiment may be executed not only in time series according to the order of description, but also in parallel or individually as required by the processing capability of the apparatus that executes the processes or as necessary.

[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When various processing functions in each device described in the above embodiment are realized by a computer, the processing contents of the functions that each device should have are described by a program. Then, by executing this program on a computer, various processing functions in each of the above devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

1 空間合成装置
2 共有オブジェクト(長椅子)
3 カメラ
4 センサ
5 ディスプレイ
6 人物
7 遮蔽部(衝立)
8 空間
9 通信網
10 映像取得部
12 動作情報取得部
14 映像再生部
16 動作再現部
1 Spatial composition device 2 Shared object (chair)
3 Camera 4 Sensor 5 Display 6 Person 7 Shield (Screen)
8 Space 9 Communication network 10 Video acquisition unit 12 Motion information acquisition unit 14 Video playback unit 16 Motion reproduction unit

Claims (3)

複数の空間それぞれに少なくとも一人の人物と、上記複数の空間を繋ぐように設置された少なくとも一つの共有オブジェクトとが存在し、上記複数の空間それぞれに設置された空間合成装置を含む空間合成システムであって、
上記空間合成装置は、
上記人物と上記共有オブジェクトとが含まれる映像を取得する映像取得部と、
上記人物の身体動作を追跡した動作情報を取得する動作情報取得部と、
他の空間にいる人物を対話相手として、他の空間の空間合成装置が取得した映像から上記対話相手の映像を抽出し、上記対話相手の映像を上記映像取得部が取得した映像に合成して再生する映像再生部と、
上記対話相手の動作情報に基づいて上記共有オブジェクトを動作させて上記対話相手の身体動作を再現する動作再現部と、
を含む空間合成システム。
A space composition system including at least one person in each of a plurality of spaces and at least one shared object installed so as to connect the plurality of spaces, and including a space composition device installed in each of the plurality of spaces. There,
The space synthesizer is
A video acquisition unit for acquiring a video including the person and the shared object;
A motion information acquisition unit that acquires motion information tracking the physical motion of the person;
Using a person in another space as a conversation partner, extract the conversation partner's video from the video acquired by the space synthesis device in the other space, and synthesize the conversation partner's video with the video acquired by the video acquisition unit. A video playback unit for playback,
A motion reproduction unit that reproduces the physical motion of the conversation partner by operating the shared object based on the motion information of the conversation partner;
Spatial synthesis system including
請求項1に記載の空間合成システムであって、
上記空間合成装置は、
上記共有オブジェクトを複数の部分に分割し、上記人物が存在する部分から他の部分が視覚的に認識できないようにする遮蔽部をさらに含む
空間合成システム。
The spatial synthesis system according to claim 1,
The space synthesizer is
A spatial synthesis system further comprising: a shielding unit that divides the shared object into a plurality of parts and prevents other parts from being visually recognized from the part where the person is present.
請求項2に記載の空間合成システムであって、
上記共有オブジェクトは二人が着席可能な長椅子であり、上記長椅子の中央に設置された衝立により空間が視覚的に分断されており、上記人物は上記衝立により分割された二つの空間のうち一方の空間において上記長椅子に着席しており、
上記映像再生部は、上記対話相手が上記長椅子の他方の空間に着席しているように上記映像を合成するものであり、
上記動作再現部は、上記長椅子の少なくとも一つの脚を、上記対話相手の動作情報に基づいて振動させるものである
空間合成システム。
The space synthesis system according to claim 2,
The shared object is a chaise lounge that can be seated by two people, and the space is visually divided by a partition installed in the center of the chaise lounge, and the person is one of two spaces divided by the partition. Sitting in the chaise longue in the space,
The video playback unit synthesizes the video so that the conversation partner is seated in the other space of the chaise longue,
The space reproduction system, wherein the motion reproduction unit vibrates at least one leg of the chaise longue based on motion information of the conversation partner.
JP2014029072A 2014-02-19 2014-02-19 Spatial synthesis system Active JP6156934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014029072A JP6156934B2 (en) 2014-02-19 2014-02-19 Spatial synthesis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014029072A JP6156934B2 (en) 2014-02-19 2014-02-19 Spatial synthesis system

Publications (2)

Publication Number Publication Date
JP2015154430A JP2015154430A (en) 2015-08-24
JP6156934B2 true JP6156934B2 (en) 2017-07-05

Family

ID=53896227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014029072A Active JP6156934B2 (en) 2014-02-19 2014-02-19 Spatial synthesis system

Country Status (1)

Country Link
JP (1) JP6156934B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122767A (en) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Method and device for creating common space giving room sharing feeling, and communication system
JP2004056161A (en) * 2002-05-28 2004-02-19 Matsushita Electric Works Ltd Multimedia communication system
JP4555701B2 (en) * 2005-02-14 2010-10-06 日本電信電話株式会社 Information processing method, interface device, program, and recording medium

Also Published As

Publication number Publication date
JP2015154430A (en) 2015-08-24

Similar Documents

Publication Publication Date Title
US11403595B2 (en) Devices and methods for creating a collaborative virtual session
RU2621644C2 (en) World of mass simultaneous remote digital presence
Larsson et al. The actor-observer effect in virtual reality presentations
Apostolopoulos et al. The road to immersive communication
JP5208810B2 (en) Information processing apparatus, information processing method, information processing program, and network conference system
EP3495921A1 (en) An apparatus and associated methods for presentation of first and second virtual-or-augmented reality content
Steed et al. Beaming: an asymmetric telepresence system
US11416201B2 (en) Apparatus and associated methods for communication between users experiencing virtual reality
Jo et al. SpaceTime: adaptive control of the teleported avatar for improved AR tele‐conference experience
CN109154862B (en) Apparatus, method, and computer-readable medium for processing virtual reality content
Steptoe et al. Acting rehearsal in collaborative multimodal mixed reality environments
Fink et al. Re-locations: Augmenting personal and shared workspaces to support remote collaboration in incongruent spaces
Roussel et al. Beyond" beyond being there" towards multiscale communication systems
CN115428032A (en) Information processing apparatus, information processing method, and program
JP6156934B2 (en) Spatial synthesis system
Nakanishi et al. Robotic table and bench enhance mirror type social telepresence
CN113508354A (en) Representation of a display environment
DeFanti et al. Technologies for virtual reality/tele-immersion applications: issues of research in image display and global networking
JP5619214B2 (en) Image processing apparatus, image processing program, and image processing method
JP5289527B2 (en) Image processing apparatus, image processing program, and image processing method
Oliva et al. The Making of a Newspaper Interview in Virtual Reality: Realistic Avatars, Philosophy, and Sushi
Tajima et al. Sync Sofa: Sofa-type Side-by-side Communication Experience Based on Multimodal Expression
JP7312550B2 (en) Virtual space providing system, virtual space providing method and program
WO2021117504A1 (en) Telepresence system
Albaladejo-Pérez et al. Augmented Reality, Virtual Reality and Mixed Reality as Driver Tools for Promoting Cognitive Activity and Avoid Isolation in Ageing Population

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170602

R150 Certificate of patent or registration of utility model

Ref document number: 6156934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250