JP6475921B2 - communication unit - Google Patents

communication unit Download PDF

Info

Publication number
JP6475921B2
JP6475921B2 JP2014066435A JP2014066435A JP6475921B2 JP 6475921 B2 JP6475921 B2 JP 6475921B2 JP 2014066435 A JP2014066435 A JP 2014066435A JP 2014066435 A JP2014066435 A JP 2014066435A JP 6475921 B2 JP6475921 B2 JP 6475921B2
Authority
JP
Japan
Prior art keywords
vibration
video
floor surface
video display
communication unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014066435A
Other languages
Japanese (ja)
Other versions
JP2015192208A (en
Inventor
康夫 高橋
康夫 高橋
矢島 浩之
浩之 矢島
貴司 折目
貴司 折目
吏 中野
吏 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2014066435A priority Critical patent/JP6475921B2/en
Publication of JP2015192208A publication Critical patent/JP2015192208A/en
Application granted granted Critical
Publication of JP6475921B2 publication Critical patent/JP6475921B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザが通信相手と通信をする際に用いられる通信ユニットに係り、特に、通信相手の映像を映像表示器に表示させることが可能な通信ユニットに関する。   The present invention relates to a communication unit used when a user communicates with a communication partner, and more particularly to a communication unit capable of displaying an image of a communication partner on a video display.

遠隔地に居る者同士が互いの映像を見ながら対話をするための通信技術は、テレビ会議や家族の見守り等の用途に既に用いられている。このような対話用の通信技術については、自分が居る環境の雰囲気を相手に伝達する等して、あたかも同じ空間内で対話をしているような感覚(以下、臨場感)を感じさせる技術の開発が求められている。   Communication technology for allowing people in remote locations to interact while watching each other's images has already been used for applications such as video conferencing and family watching. With regard to communication technology for such dialogue, it is a technology that makes you feel as if you are interacting in the same space (hereinafter, a sense of realism) by communicating the atmosphere of your environment to the other party. Development is required.

一方、雰囲気を伝達する技術としては、特許文献1に記載の技術が挙げられる。特許文献1は、音場(雰囲気)伝達システムに関するものであり、対象部屋内に設置された音場集音用マイクを備えた集音装置、スピーカを備えた再生装置、及び、集音装置が集音した音声信号を再生装置へ伝送する伝送手段を有するものである。再生装置は、対象部屋とは異なる部屋の壁際に設置され、バスレフ構造のエンクロージャと、その内部に設けられたスピーカと、エンクロージャの底面部に設けられたアクチュエータとを有する。さらに、再生装置は、集音装置の音場集音用マイクが集音した音声信号をスピーカで再生するとともに、マイクが集音した音声信号のうち低音域の信号でアクチュエータを駆動することとしている。   On the other hand, as a technique for transmitting the atmosphere, a technique described in Patent Document 1 can be given. Patent Document 1 relates to a sound field (atmosphere) transmission system, in which a sound collection device including a sound field sound collection microphone installed in a target room, a reproduction device including a speaker, and a sound collection device are provided. It has a transmission means for transmitting the collected audio signal to the playback device. The playback device is installed on the wall of a room different from the target room, and includes a bass-reflex enclosure, a speaker provided in the enclosure, and an actuator provided on the bottom surface of the enclosure. Furthermore, the playback device plays back the audio signal collected by the sound field collection microphone of the sound collection device with a speaker, and drives the actuator with a low-frequency signal of the audio signal collected by the microphone. .

以上のような構成によれば、マイクによって集音された音(生活音)がスピーカで再生される際、低音域の信号でアクチュエータが駆動することで床または再生装置が振動するようになる。これにより、マイクが設置された対象部屋内で発生した生活音のうち、超低周波音が床の振動または再生装置自身の振動として再生される。このような作用により、再生装置を壁際に設置しておけば、対象部屋の雰囲気が壁際で再生され、あたかもその壁の向こう側に対象部屋があるかのような雰囲気を再現することが可能となる。   According to the above configuration, when the sound (life sound) collected by the microphone is reproduced by the speaker, the floor or the reproduction device vibrates by driving the actuator with a low-frequency signal. Thereby, ultra-low frequency sound is reproduced | regenerated as vibration of a floor or the vibration of reproducing | regenerating apparatus itself among the living sounds generated in the target room in which the microphone is installed. With such a function, if the playback device is installed near the wall, the atmosphere of the target room is reproduced by the wall, and it is possible to reproduce the atmosphere as if the target room is on the other side of the wall. Become.

特開2012−95230号公報JP 2012-95230 A

しかしながら、互いの映像を見ながら対話をするための通信システムに、特許文献1に記載された技術を導入したとしても、対話者同士が互いに音場を伝達し合うことは可能になるものの、同じ空間内で対話をしているような臨場感を効果的に得ることは困難である。   However, even if the technology described in Patent Document 1 is introduced into a communication system for performing a conversation while watching each other's images, the conversation persons can transmit each other's sound field, but the same. It is difficult to effectively obtain a sense of realism as if we are interacting in space.

そこで、本発明は、上記の課題に鑑みてなされたものであり、その目的とするところは、ユーザが相手の映像を見ながら当該相手と対話をするために用いる通信ユニットとして、対話の臨場感を向上させることが可能な通信ユニットを提供することである。   Therefore, the present invention has been made in view of the above-described problems, and the object of the present invention is to provide a sense of reality of dialogue as a communication unit used for a user to interact with a partner while viewing the partner's video. It is providing the communication unit which can improve.

前記課題は、本発明の通信ユニットによれば、ユーザが通信相手と通信をする際に用いられる通信ユニットであって、(A)前記通信相手の映像を表示する映像表示器と、(B)前記ユーザが立っている第1床面に対して振動を付与する振動付与体と、(C)前記通信相手との通信を通じて前記映像を示す映像データを取得する取得処理と、取得した前記映像データが示す前記映像を前記映像表示器に表示させる映像表示処理と、前記振動付与体を制御して前記第1床面を振動させる振動発生処理と、を実行する制御装置と、を備え、(D)該制御装置は、前記取得処理において、前記通信相手の下に位置する第2床面から離れた状態にある前記通信相手の足が前記第2床面に接地する接地シーンを含む前記映像を示す前記映像データを取得した際、前記接地シーンが表示されるタイミングと前記第1床面が振動するタイミングとが一致するように前記映像表示処理と前記振動発生処理とを実行し、
前記制御装置は、前記通信相手の足が前記第2床面に接地した際に発生した振動の大きさを示す振動データを取得する第2の取得処理を実行し、前記振動発生処理において、前記第1床面での振動の大きさと前記振動データが示す振動の大きさとが一致するように前記振動付与体を制御し、
前記第1床面における振動の大きさを計測する計測器を更に備え、
前記制御装置は、前記振動発生処理における前記振動付与体の制御量と、該制御量にて前記振動付与体を制御したときに前記計測器が計測した前記第1床面における振動の大きさの計測結果と、の対応関係を記憶し、
前記制御装置は、前記取得処理を実行してから前記映像表示処理における前記接地シーンが表示されるタイミングまでの間に、前記振動データ及び前記対応関係に基づいて前記制御量を算出することにより解決される。
According to the communication unit of the present invention, the subject is a communication unit used when a user communicates with a communication partner, (A) a video display for displaying the video of the communication partner, and (B). A vibration imparting body for imparting vibration to the first floor on which the user is standing; (C) an acquisition process for acquiring video data indicating the video through communication with the communication partner; and the acquired video data And a control device that executes a video display process for displaying the video indicated by the video display on the video display and a vibration generation process for controlling the vibration imparting body to vibrate the first floor surface. ) In the acquisition process, the control device displays the video including a grounding scene in which a foot of the communication partner in a state separated from the second floor located below the communication partner contacts the second floor. Get the video data shown And when the first bed surface and the timing of the ground scene is displayed running and the vibration generating processing with the video display processing so that the timing of vibration coincide,
The control device performs a second acquisition process of acquiring vibration data indicating a magnitude of vibration generated when the communication partner's foot touches the second floor surface, and in the vibration generation process, Controlling the vibration imparting body so that the magnitude of vibration on the first floor surface matches the magnitude of vibration indicated by the vibration data;
A measuring instrument for measuring the magnitude of vibration on the first floor surface;
The control device includes: a control amount of the vibration imparting body in the vibration generation process; and a magnitude of vibration on the first floor measured by the measuring instrument when the vibration imparting body is controlled by the control amount. Memorize the correspondence with measurement results,
The control device solves the problem by calculating the control amount based on the vibration data and the correspondence relationship between the execution of the acquisition process and the timing at which the ground scene is displayed in the video display process. Is done.

上記の構成では、映像中、通信相手の足が床面(第2床面)に接地するシーンが表示されるタイミングに同期して、ユーザが立っている床面(第1床面)が振動する。このように通信相手の足の動きに連動させてユーザが立っている床面を振動させることで、通信相手側で発生した床面の振動がユーザ側で再現されるようになる。これにより、ユーザは、自己が居る空間と通信相手が居る空間とが連続(一体化)しているように感じる。つまり、本発明の通信ユニットであれば、ユーザが通信相手とあたかも同じ空間内で対話をしているような感覚、すなわち、臨場感を向上させることが可能となる。   In the above configuration, the floor surface (first floor surface) on which the user stands is vibrated in synchronization with the timing at which a scene in which the foot of the communication partner touches the floor surface (second floor surface) is displayed in the video. To do. In this way, by vibrating the floor surface on which the user stands in conjunction with the movement of the communication partner's foot, the vibration of the floor surface generated on the communication partner side is reproduced on the user side. Accordingly, the user feels that the space where the user is present and the space where the communication partner is present are continuous (integrated). That is, with the communication unit of the present invention, it is possible to improve the feeling that the user is interacting with the communication partner in the same space, that is, the sense of reality.

また、上記の構成では、通信相手の足の動きで発生した振動について、その大きさを計測する一方で、ユーザ側では、当該計測結果と一致する大きさの振動が発生するように振動付与体を制御する。この結果、通信相手側で発生した床面の振動がユーザ側でより正確に再現されるようになり、臨場感をより一層向上させることが可能となる。 Further, in the above SL configurations, the generated motion of the communication partner feet vibration, while measuring the magnitude, the user side, the vibration imparting such vibrations of a magnitude consistent with the measurement result is generated Control the body. As a result, the vibration of the floor surface generated on the communication partner side can be reproduced more accurately on the user side, and the sense of reality can be further improved.

また、上記の構成では、振動付与体を制御する際の制御量と床面(第1床面)を実際に振動させたときの振動の大きさとの対応関係を記憶している。これに基づいて制御量を算出すれば、通信相手側で発生した床面の振動をユーザ側で再現する上で妥当な量を算出することが可能となる。 In the configuration above SL and stores the correspondence between the magnitude of the vibration at the time of actually vibrate the control amount and the floor surface in controlling the vibration imparting body (first bed surface). If the control amount is calculated based on this, it is possible to calculate an appropriate amount for reproducing the floor vibration generated on the communication partner side on the user side.

また、上記の構成では、振動付与体を制御する際の制御量を算出する時間を、映像データを取得してから接地シーンが表示されるようになるまでの期間中で確保する。また、上記の制御量を算出する際には、上記の振動データ及び対応関係に基づいて算出する。これにより、通信相手側で発生した床面の振動がユーザ側で正確に再現されるように、振動付与体を適切に制御することが可能となる。
In the configuration above SL, the time for calculating the control amount in controlling the vibrating body, to ensure in the period from when obtaining the image data until the ground scene is displayed. Moreover, when calculating said control amount, it calculates based on said vibration data and correspondence. Accordingly, it is possible to appropriately control the vibration imparting body so that the vibration of the floor surface generated on the communication partner side is accurately reproduced on the user side.

また、上記の通信ユニットにおいて、前記振動付与体は、前記映像表示器の横幅方向における中央位置を挟んで互いに反対側にある位置に、それぞれ配置されていると、尚一層好適である。このとき、前記制御装置は、前記横幅方向において前記中央位置よりも一端側に位置する前記振動付与体、及び、前記中央位置よりも他端側に位置する前記振動付与体の各々を、互いに異なる制御量にて制御することが望ましい。
上記の構成では、映像表示器の横幅方向の中央位置から見て互いに異なる位置に振動付与体が複数設置されており、各振動付与体を個別に制御する。これにより、通信相手側で発生した床面の振動を、その発生位置まで含めてユーザ側で正確に再現し得るようになり、臨場感を一段と向上させることが可能となる。
In the communication unit, it is even more preferable that the vibration imparting bodies are respectively disposed at positions on opposite sides of the center position in the lateral width direction of the video display. At this time, the control device differs in each of the vibration imparting body located on one end side from the central position and the vibration imparting body located on the other end side from the central position in the lateral width direction. It is desirable to control with a control amount.
In the above configuration, a plurality of vibration imparting bodies are installed at different positions when viewed from the central position in the horizontal width direction of the video display, and each vibration imparting body is individually controlled. Thereby, the vibration of the floor surface generated on the communication partner side can be accurately reproduced on the user side including the generation position, and the sense of reality can be further improved.

また、上記の通信ユニットにおいて、前記映像表示器が前記映像を表示するために有する画面の下端領域は、前記第1床面の上方位置にあって前記第1床面周辺に位置し、前記制御装置は、前記取得処理において、前記通信相手の全身像と前記第2床面とを含む前記映像を示す前記映像データを取得し、前記映像表示処理において、前記下端領域に前記映像中の前記第2床面が映るように前記映像を前記映像表示器に表示させると、益々好適である。
上記の構成では、映像の表示画面の下端領域が第1床面周辺に位置し、当該下端領域には、通信相手が立っている第2床面が映るようになる。これにより、第1床面と第2床面とがあたかも連続しているような視覚的効果が得られるようになる。この結果、臨場感をより一層向上させることが可能となる。
Further, in the communication unit, a lower end region of a screen that the video display has for displaying the video is located above the first floor surface and around the first floor surface, and the control In the acquisition process, the apparatus acquires the video data indicating the video including the whole body image of the communication partner and the second floor surface, and in the video display process, the apparatus displays the first data in the video in the lower end region. It is more and more preferable to display the video on the video display so that two floor surfaces are reflected.
In the above configuration, the lower end area of the video display screen is positioned around the first floor surface, and the second floor surface on which the communication partner stands is reflected in the lower end area. Thereby, a visual effect as if the first floor surface and the second floor surface are continuous can be obtained. As a result, it is possible to further improve the sense of reality.

本発明の通信ユニットによれば、通信相手側で発生した床面の振動をユーザ側で再現することが可能である。とりわけ、音声や映像のみを伝達する従来の対話用の通信技術では再現困難であった通信相手の存在感を、当該通信相手の動きに合わせて床面を振動させることで良好に再現することが可能となる。この結果、ユーザは、自己が居る空間と通信相手が居る空間とが連続(一体化)しているように感じ、通信相手とあたかも同じ空間内で対話をしているような感覚、すなわち、臨場感を実感するようになる。
なお、本発明の通信ユニットの副次的効果としては、再現される振動を通じて通信相手の状態を把握することが挙げられる。具体例を挙げて説明すると、本発明の通信ユニットを用いることで、例えばあるユーザが、離れて暮らしている子供や孫の様子(具体例を挙げると、賑やかに動いている、静かにしている等の様子)を把握することが可能となる。
According to the communication unit of the present invention, it is possible to reproduce the floor vibration generated on the communication partner side on the user side. In particular, it is possible to reproduce the presence of a communication partner, which was difficult to reproduce using conventional interactive communication technology that transmits only audio and video, by vibrating the floor according to the movement of the communication partner. It becomes possible. As a result, the user feels that the space where the user is and the space where the communication partner is located are continuous (integrated), and the user feels as if he / she is interacting with the communication partner in the same space, that is, the presence. Realize a feeling.
As a secondary effect of the communication unit of the present invention, it is possible to grasp the state of the communication partner through reproduced vibrations. Explaining with specific examples, by using the communication unit of the present invention, for example, a certain user is living away from a child or grandchildren (specific examples are lively, quiet and quiet) Etc.) can be grasped.

本発明の一実施形態に係る通信ユニットの構成を示す図である。It is a figure which shows the structure of the communication unit which concerns on one Embodiment of this invention. 本発明の通信ユニットを利用した対話の様子を示す図である。It is a figure which shows the mode of the dialog using the communication unit of this invention. 制御量と振動の大きさの実績値との対応関係を示すテーブルデータの図である。It is a figure of the table data which shows the correspondence of a control amount and the actual value of the magnitude | size of a vibration. 対話用通信の流れを示す図である。It is a figure which shows the flow of communication for dialog. 通信相手側の振動を伝達する様子を示すイメージ図である。It is an image figure which shows a mode that the vibration of a communicating party side is transmitted. 変形例に係る通信ユニットの構成を示す図である。It is a figure which shows the structure of the communication unit which concerns on a modification.

以下、本発明の一実施形態(以下、本実施形態)について図面を参照しながら説明する。
本実施形態に係る通信ユニットは、互いに離れた場所にいるユーザ同士が互いの映像を見ながら対話をするために用いられるものである。通信ユニットは、ユーザ毎に用意され、具体的には各ユーザの自宅に備え付けられている。そして、ユーザは、自宅中、通信ユニットを構成するデバイスが設置された部屋(以下、対話実施部屋)にて通信相手と対話用の通信をする。
Hereinafter, an embodiment of the present invention (hereinafter, this embodiment) will be described with reference to the drawings.
The communication unit according to the present embodiment is used for users having distant places to interact with each other while watching each other's video. The communication unit is prepared for each user, and specifically, installed in each user's home. Then, the user communicates for communication with the communication partner in his / her room in a room (hereinafter referred to as a “dialogue room”) in which devices constituting the communication unit are installed.

以下では、説明を分かり易くするために、一方のユーザをAさん、もう一方のユーザをBさんとし、AさんがBさんを通信相手として対話用の通信を行うケースを例に挙げて説明することとする。すなわち、以下に説明する内容は、Aさん側の通信ユニットに視点を置いたときの内容である。なお、Aさん側の通信ユニットとBさん側の通信ユニットは同じ構成となっている。このため、以下に説明する内容については、視点を変えてBさん側の通信ユニットに着目したとき(BさんがAさんを通信相手として対話用の通信を行うケース)にも同様となることを付言しておく。   In the following, in order to make the explanation easy to understand, a case where one user is Mr. A, the other user is Mr. B, and Mr. A performs communication for dialogue with Mr. B as a communication partner will be described as an example. I will do it. That is, the content described below is the content when the viewpoint is placed on the communication unit on the Mr. A side. The communication unit on the A's side and the communication unit on the B's side have the same configuration. For this reason, the contents described below are the same when the viewpoint is changed and the communication unit on Mr. B's side is noticed (when Mr. B performs communication for conversation with Mr. A as the communication partner). I will add that.

<<通信ユニットの機器構成>>
先ず、通信ユニット100の機器構成について説明すると、図1に示すように、Aさんの映像/音声を取得する入力デバイスとしてのカメラ2及びマイク3、並びに、Bさんの映像/音声を再生する出力デバイスとしての映像表示器4及びスピーカ5が備えられている。これらのデバイスは、Aさんの自宅、より具体的には対話実施部屋内に設置されている。なお、上記のデバイスのうち、カメラ2、マイク3及びスピーカ5については公知の機器を利用することが可能である。
<< Device configuration of communication unit >>
First, the device configuration of the communication unit 100 will be described. As shown in FIG. 1, the camera 2 and the microphone 3 as input devices for acquiring Mr. A's video / audio, and the output for reproducing Mr. B's video / audio. A video display 4 and a speaker 5 are provided as devices. These devices are installed in Mr. A's home, more specifically in the dialogue room. Of the above-described devices, known devices can be used for the camera 2, the microphone 3, and the speaker 5.

本実施形態に係る映像表示器4について説明すると、図1や図2に示すように正面視で矩形状のディスプレイであり、その前面には映像表示用の画面4aが形成されている。なお、本実施形態では、映像表示器4が対話実施部屋の壁際に配置されているが、映像表示器4の配置位置については特に限定されるものではなく、任意に決めることが可能である。   The video display 4 according to the present embodiment will be described. As shown in FIGS. 1 and 2, the video display 4 is a rectangular display in front view, and a video display screen 4a is formed on the front surface. In the present embodiment, the video display 4 is arranged near the wall of the dialogue room, but the arrangement position of the video display 4 is not particularly limited and can be arbitrarily determined.

また、映像表示器4は、図2に示すように、その画面4aの下端領域が対話実施部屋の床面F1(第1床面に相当)の直上位置にあり当該床面F1周辺(厳密には、映像表示器4の外枠の幅に相当する距離だけ浮いた位置)に位置するように配置されている。   In addition, as shown in FIG. 2, the video display 4 has a lower end area of the screen 4a located immediately above the floor F1 (corresponding to the first floor) of the room where the dialogue is performed, and around the floor F1 (strictly, Are arranged so as to be located at a position floating by a distance corresponding to the width of the outer frame of the video display 4.

通信ユニット100の構成について更に説明すると、図1に示すように、ホームサーバ1が備えられている。このホームサーバ1は、いわゆるホームゲートウェイであり、CPU、RAMやROMからなるメモリ、ハードディスクドライブ、及び通信用インタフェースを有する。また、ホームサーバ1のメモリには、各種プログラムやデータが格納されている。   The configuration of the communication unit 100 will be further described. As shown in FIG. 1, a home server 1 is provided. The home server 1 is a so-called home gateway, and includes a CPU, a memory including a RAM and a ROM, a hard disk drive, and a communication interface. Various programs and data are stored in the memory of the home server 1.

そして、ホームサーバ1は、上述した各デバイス及び後述する振動付与体6を制御する制御装置に相当する。また、ホームサーバ1は、インターネット等の通信網を通じてBさん側のホームサーバ1とデータの送受信を行う。このようにホームサーバ1は、対話用の通信を実現するために各種の処理を実行する。なお、対話用の通信を実現するための処理については、ホームサーバ1のメモリに格納されたプログラムをCPUが読み取ることで実行される。   And the home server 1 is corresponded to the control apparatus which controls each device mentioned above and the vibration provision body 6 mentioned later. The home server 1 transmits and receives data to and from the home server 1 on the B side through a communication network such as the Internet. In this way, the home server 1 executes various processes in order to realize interactive communication. Note that processing for realizing interactive communication is executed by the CPU reading a program stored in the memory of the home server 1.

ここで、ホームサーバ1が実行する処理について説明すると、Aさんの映像及び音声を示す動画ファイルデータを配信する配信処理が挙げられる。本処理では、ホームサーバ1がAさんを撮影したときの映像信号をカメラ2から取得し、また、Aさんの音声を集音したときの音声信号をマイク3から取得する。その後、ホームサーバ1は、取得した映像信号及び音声信号から動画ファイルデータを生成し、同データをBさん側のホームサーバ1に向けて送信する。ここで、動画ファイルデータは、映像を示す映像データに該当し、厳密には、映像データと音声を示す音声データとを併せ持つものである。   Here, the process executed by the home server 1 will be described. A delivery process for delivering video file data indicating the video and audio of Mr. A is mentioned. In this process, the video signal when the home server 1 captures Mr. A is acquired from the camera 2, and the audio signal when the voice of Mr. A is collected is acquired from the microphone 3. Thereafter, the home server 1 generates moving image file data from the acquired video signal and audio signal, and transmits the data to the home server 1 on the B side. Here, the moving image file data corresponds to video data indicating video, and strictly speaking, the video file data includes both video data and audio data indicating audio.

なお、本実施形態において、カメラ2は、被写体であるAさんの全身像を、対話実施部屋の床面F1を含むAさんの周辺環境とともに撮影する。したがって、ホームサーバ1が生成する動画ファイルデータの中から映像データを抽出して展開すると、Aさんの全身像と対話実施部屋の床面F1を含む周辺環境とを含む映像が表示されることになる。ここで、「全身像」とは、頭部から足に亘る身体全体の姿であり、起立状態であっても着座状態であってもよく、また、前方に配置された物によって一部が隠れている状態の姿を含む概念である。   In the present embodiment, the camera 2 captures a full-length image of Mr. A who is the subject together with the surrounding environment of Mr. A including the floor F1 of the dialogue room. Therefore, when the video data is extracted from the moving image file data generated by the home server 1 and expanded, a video including the full-length image of Mr. A and the surrounding environment including the floor F1 of the dialogue room is displayed. Become. Here, the “whole body image” is the appearance of the whole body from the head to the foot, which may be standing or sitting, and partly hidden by an object placed in front. It is a concept that includes the appearance of

ホームサーバ1が実行する処理としては、上記の配信処理の他に、相手側のホームサーバ1から動画ファイルデータを受信するデータ受信処理と、受信した動画ファイルデータを展開して映像や音声を再生する映像音声再生処理と、が挙げられる。データ受信処理は、AさんがBさんとの通信を通じてBさんの映像及び音声を示す動画ファイルデータを取得する処理であり、映像データを取得する「取得処理」に相当する。   The processing executed by the home server 1 includes, in addition to the distribution processing described above, data reception processing for receiving moving image file data from the other party's home server 1, and reproduction of the received moving image file data to reproduce video and audio. And video / audio reproduction processing to be performed. The data reception process is a process in which Mr. A acquires moving image file data indicating the video and audio of Mr. B through communication with Mr. B, and corresponds to an “acquisition process” for acquiring video data.

映像音声再生処理は、受信した動画ファイルデータから映像データ及び音声データをそれぞれ抽出して展開し、映像データが示す映像を映像表示器4に表示させ、音声データが示す音声をスピーカ5に再生させる処理である。かかる意味で、映像音声再生処理は、「映像表示処理」に該当する。   In the video / audio reproduction process, video data and audio data are respectively extracted from the received video file data and expanded, the video indicated by the video data is displayed on the video display 4, and the audio indicated by the audio data is reproduced on the speaker 5. It is processing. In this sense, the video / audio reproduction processing corresponds to “video display processing”.

なお、本実施形態では、Bさん側のホームサーバ1から受信する動画ファイルデータには、Bさんの全身像及びBさんが居る対話実施部屋の床面F2(第2床面に相当)を含む周辺環境の映像を示す映像データが含まれている。したがって、映像音声再生処理が実行されると、図2に示すように、映像表示器4の画面4aにBさん及びその周辺環境が表示されるようになり、特に、対話実施部屋の床面F2は、画面4aの下端領域に表示されるようになる。   In the present embodiment, the moving image file data received from Mr. B's home server 1 includes the full-length image of Mr. B and the floor F2 (corresponding to the second floor) of the dialogue room where Mr. B is located. Video data showing the video of the surrounding environment is included. Therefore, when the video / audio reproduction process is executed, as shown in FIG. 2, Mr. B and the surrounding environment are displayed on the screen 4a of the video display 4, and in particular, the floor F2 of the dialogue room. Is displayed in the lower end area of the screen 4a.

ここで、画面4aの下端領域については、前述したように、対話実施部屋の床面F1の直上位置にあり当該床面F1周辺に位置している。このため、Bさんの下に位置する床面F2が画面4aの下端領域に表示されると、図2に示すように、Aさん側の床面F1とBさん側の床面F2とがあたかも連続しているような視覚的効果が得られるようになる。この結果、Aさんは、Bさんとあたかも同じ空間内で対話をしているような感覚、すなわち臨場感を感じるようになる。   Here, as described above, the lower end region of the screen 4a is located immediately above the floor surface F1 of the dialogue room and is located around the floor surface F1. For this reason, when the floor surface F2 located below Mr. B is displayed in the lower end area of the screen 4a, as shown in FIG. 2, the floor surface F1 on the Mr. A side and the floor surface F2 on the Mr. B side appear as if they are. A visual effect that is continuous is obtained. As a result, Mr. A feels as if he is interacting with Mr. B in the same space, that is, a sense of reality.

さらに、本実施形態に係るホームサーバ1は、Aさんが立っている床面F1を振動させる振動発生処理を実行する。この振動発生処理は、対話の臨場感を向上させるために実行される処理である。具体的に説明すると、映像表示器4に表示させる映像中に接地シーンがある場合、当該接地シーンの表示タイミングと同期して床面F1を振動させることとしている。ここで、接地シーンとは、床面F2から離れた状態にあるBさんの足が床面F2に接地するシーンのことであり、例えば、Bさんが歩行動作又は跳躍動作を行っているシーンが該当する。   Furthermore, the home server 1 according to the present embodiment executes a vibration generation process for vibrating the floor surface F1 on which Mr. A stands. This vibration generation process is a process executed to improve the realism of dialogue. More specifically, when there is a ground scene in the video displayed on the video display 4, the floor F1 is vibrated in synchronization with the display timing of the ground scene. Here, the grounding scene is a scene where the foot of Mr. B who is away from the floor surface F2 contacts the floor surface F2, for example, a scene where Mr. B is performing a walking motion or a jumping motion. Applicable.

以上のように接地シーンの表示タイミングと同期してAさんが立っている床面F1を振動させることで、Bさんの動きに伴って発生した床面F2の振動がAさん側で再現されるようになる。これにより、音声や映像を伝達するだけでは再現困難なBさんの存在感を、Bさんの動きに合わせて床面F1を振動させることで良好に再現することが可能となる。この結果、Aさんは、自己が居る室内空間とBさんが居る室内空間とが連続(一体化)しているように感じ、あたかも同じ空間内でBさんと対話をしている臨場感を感じるようになる。   As described above, by vibrating the floor surface F1 on which Mr. A stands in synchronization with the display timing of the grounding scene, the vibration of the floor surface F2 caused by the movement of Mr. B is reproduced on the Mr. A side. It becomes like this. As a result, Mr. B's presence, which is difficult to reproduce simply by transmitting voice or video, can be reproduced well by vibrating the floor F1 in accordance with Mr. B's movement. As a result, Mr. A feels that the indoor space where he is and the indoor space where Mr. B is continuous (integrated), and feels as if he is interacting with Mr. B in the same space. It becomes like this.

なお、通信ユニット100は、ホームサーバ1が振動発生処理を実行するために必要となるデバイスとして振動付与体6を備えている。この振動付与体6は、床面F1を構成する床材の裏面に当接させる形で設けられており、映像表示器4の前方位置、より具体的には、映像表示器4の横幅方向の中央位置から若干離れた位置に配置されている。また、本実施形態では、機械的動作によって床面F1に振動を付与するアクチュエータが用いられている。なお、振動付与体6については、アクチュエータに限定されるものではなく、床面F1を好適に振動させるものであればよく、例えば、振動スピーカを用いることとしてもよい。   The communication unit 100 includes a vibration imparting body 6 as a device necessary for the home server 1 to execute the vibration generation process. The vibration imparting body 6 is provided in contact with the back surface of the floor material constituting the floor surface F1, and more specifically in the front position of the video display device 4, more specifically in the horizontal width direction of the video display device 4. It is arranged at a position slightly away from the center position. In the present embodiment, an actuator that applies vibration to the floor surface F1 by a mechanical operation is used. Note that the vibration imparting body 6 is not limited to an actuator, and may be any one that suitably vibrates the floor surface F1, and for example, a vibration speaker may be used.

ホームサーバ1は、振動発生処理の実行動作として振動付与体6を制御し、厳密には、振動付与体6に対して制御信号を出力する。かかる制御信号を受信した振動付与体6は、当該制御信号を解析して制御量を特定し、当該制御量に応じた出力(厳密には発生振動の振幅)にて振動を発生して床面F1に付与する。なお、ホームサーバ1から出力された制御信号については、その伝送過程において増幅回路7により増幅され、増幅後の信号が振動付与体6に入力されることになっている。   The home server 1 controls the vibration imparting body 6 as an execution operation of the vibration generation process, and strictly speaking, outputs a control signal to the vibration imparting body 6. The vibration imparting body 6 that has received such a control signal analyzes the control signal to identify a control amount, and generates a vibration with an output corresponding to the control amount (strictly, the amplitude of the generated vibration). To F1. Note that the control signal output from the home server 1 is amplified by the amplifier circuit 7 in the transmission process, and the amplified signal is input to the vibration imparting body 6.

また、床材の裏面には、振動付与体6の他に加速度センサ8が取り付けられている。この加速度センサ8は、計測器の一例であり、床面F1における振動の大きさ(厳密には、振幅の大きさ)を計測するものであり、計測結果を示す電気信号を出力する。伝送された電気信号は、ロガー9に格納されるようになっている。このロガー9は、格納された信号に基づいて振動の計測結果を示すデータ、すなわち、振動データを生成してホームサーバ1に送信する。なお、本実施形態において、加速度センサ8は、映像表示器4の前方位置に配置されている。   In addition to the vibration imparting body 6, an acceleration sensor 8 is attached to the back surface of the flooring. This acceleration sensor 8 is an example of a measuring instrument, measures the magnitude of vibration (strictly speaking, the magnitude of amplitude) on the floor surface F1, and outputs an electrical signal indicating the measurement result. The transmitted electrical signal is stored in the logger 9. The logger 9 generates data indicating a vibration measurement result based on the stored signal, that is, vibration data, and transmits the data to the home server 1. In the present embodiment, the acceleration sensor 8 is disposed at the front position of the video display 4.

また、ホームサーバ1は、学習機能を有し、振動発生処理を実行する度に当該処理におけるインプット値とアウトプット値とを記憶し、両値間の対応関係を図3に図示のテーブルデータとして保存している。ここで、インプット値とは、振動発生処理における振動付与体6の制御量のことである。アウトプット値とは、インプット値として決定された制御量にて振動付与体6を制御したときに加速度センサ8が計測した床面F1における振動の大きさの計測結果のことである。   Further, the home server 1 has a learning function, and stores the input value and output value in the process every time the vibration generation process is executed, and the correspondence between the two values is represented as table data shown in FIG. Saved. Here, the input value is a control amount of the vibration applying body 6 in the vibration generating process. The output value is a measurement result of the magnitude of vibration on the floor surface F1 measured by the acceleration sensor 8 when the vibration applying body 6 is controlled by the control amount determined as the input value.

<<対話用通信の流れ>>
次に、上記のように構成された通信ユニット100を用いた対話用通信の流れについて図4を参照しながら説明する。なお、以下に説明する内容は、前述したように、Aさん側の通信ユニット100に視点を置いたときの内容であるが、視点を変えてBさん側の通信ユニットに着目したときにも同様となる。すなわち、以下で説明するAさん側の通信ユニット100が行う処理及びその手順については、Bさん側の通信ユニット100も同様の処理を同様の手順にて行うことになる。
<< Flow of conversation communication >>
Next, a communication flow using the communication unit 100 configured as described above will be described with reference to FIG. The contents described below are the contents when the viewpoint is placed on the communication unit 100 on the Mr. A side as described above, but the same applies when focusing on the communication unit on the Mr. B side while changing the viewpoint. It becomes. In other words, regarding the processing and procedure performed by the A-side communication unit 100 described below, the B-side communication unit 100 performs the same processing in the same procedure.

対話用通信を開始するにあたり、Bさん側のホームサーバ1が、カメラ2から映像信号を、マイク3から音声信号を取得し、これらの信号に基づいて動画ファイルデータを生成し、当該データをAさん側のホームサーバ1に向けて送信する(S001)。   When starting communication for conversation, Mr. B's home server 1 acquires a video signal from the camera 2 and an audio signal from the microphone 3, generates video file data based on these signals, and stores the data as A The message is sent to the home server 1 on the other side (S001).

Aさん側のホームサーバ1は、上記の動画ファイルデータを受信すると(S002)、映像音声再生処理を実行する(S003)。すなわち、受信した動画ファイルデータの中から映像データ及び音声データを抽出して展開する。そして、ホームサーバ1は、映像データが示す映像を映像表示器4に表示させ、音声データが示す音声をスピーカ5に再生させる。これにより、映像表示器4の画面4aにはBさんの全身像及びその周辺環境が表示されるようになり、スピーカ5からはBさんが発した音声が流れるようになる。   When Mr. A's home server 1 receives the above-mentioned moving image file data (S002), the video / audio reproduction process is executed (S003). That is, video data and audio data are extracted from the received moving image file data and expanded. Then, the home server 1 displays the video indicated by the video data on the video display 4 and causes the speaker 5 to reproduce the audio indicated by the audio data. As a result, Mr. B's whole body image and its surrounding environment are displayed on the screen 4 a of the video display 4, and the sound emitted by Mr. B flows from the speaker 5.

ところで、撮影・集音期間中にBさんが歩行動作や跳躍動作を行った場合には、当然ながら当該動作を行っている様子も撮影されることになり、その映像データには、当該動作を行っているシーン、すなわち接地シーンが含まれるようになる。したがって、上記の映像データを展開して映像を表示したときには、その途中で接地シーンが表示されるようになる。   By the way, when Mr. B performs a walking motion or a jumping motion during the shooting / sound collection period, the state of the motion is naturally captured, and the video data includes the motion. The scene being performed, that is, the grounding scene is included. Accordingly, when the video data is expanded and displayed, the ground scene is displayed in the middle of the display.

一方、Bさんが上記の動作を行うと、不可避的にBさんが立っている床面F2が振動することになる(S004でYes)。床面F2が振動すると、図5の(A)に示すように床面F2の下に設置された加速度センサ8が当該振動の大きさを計測し、その計測結果を示す電気信号をロガー9に出力する。ロガー9は、電気信号を受信すると、振動の大きさの計測結果を示す振動データを生成してBさん側のホームサーバ1に伝送する。そして、Bさん側のホームサーバ1は、上記の振動データをAさん側のホームサーバ1に向けて送信する(S005)。   On the other hand, when Mr. B performs the above operation, the floor surface F2 on which Mr. B stands is inevitably vibrated (Yes in S004). When the floor surface F2 vibrates, as shown in FIG. 5A, the acceleration sensor 8 installed under the floor surface F2 measures the magnitude of the vibration, and an electrical signal indicating the measurement result is sent to the logger 9. Output. When the logger 9 receives the electrical signal, the logger 9 generates vibration data indicating a measurement result of the magnitude of vibration and transmits the vibration data to the home server 1 on the B side. Then, Mr. B's home server 1 transmits the above vibration data to Mr. A's home server 1 (S005).

Aさん側のホームサーバ1は、Bさん側のホームサーバ1から送信された振動データを、インターネットを通じて受信する処理を実行する(S006)。かかる処理S006は、第2の取得処理に相当し、同処理を実行することで、Aさん側のホームサーバ1は上記の振動データを取得する。   The Mr. A's home server 1 executes a process of receiving the vibration data transmitted from the Mr. B's home server 1 through the Internet (S006). The process S006 corresponds to a second acquisition process, and the Mr. A-side home server 1 acquires the vibration data by executing the process.

そして、振動データを取得した場合、Aさん側のホームサーバ1は、接地シーンの表示タイミングと床面F1が振動するタイミングとが一致するように映像音声再生処理と振動発生処理とを実行する。ここで、映像中の所定のシーンを表示するタイミングと他の処理の実行タイミング(本実施形態では、床面F1を振動させるタイミング)とを一致させる方法としては、特に限定されず、公知の同期方法を利用することが可能である。その一例を挙げると、先ず、接地シーンを含む映像の動画ファイルデータを解析することで、当該映像の表示を開始してから接地シーンが表示されるようになるまでの時間を割り出す。そして、割り出した当該時間に基づいて接地シーンの表示タイミングを決定し、さらに、同タイミングにて振動発生処理を実行すれば、両タイミングが同期するようになる。   When the vibration data is acquired, the Mr. A's home server 1 executes the video / audio reproduction process and the vibration generation process so that the display timing of the grounding scene and the timing at which the floor surface F1 vibrates coincide with each other. Here, the method for matching the timing for displaying a predetermined scene in the video with the timing for executing another process (in this embodiment, the timing for vibrating the floor F1) is not particularly limited, and is known publicly-known synchronization. It is possible to use the method. For example, first, by analyzing the moving image file data of a video including a grounding scene, the time from when the video is displayed until the grounding scene is displayed is determined. Then, if the display timing of the grounding scene is determined based on the calculated time and the vibration generation process is executed at the same timing, both timings are synchronized.

また、振動発生処理を実行する際、ホームサーバ1は、床面F1での振動の大きさと上記の振動データが示す振動の大きさとが一致するように振動付与体6を制御する。より具体的に説明すると、Aさん側のホームサーバ1は、振動データをBさん側のホームサーバ1から受信することで、略同時期に受信した映像データ(厳密には動画ファイルデータ)が示す映像に接地シーンが含まれていることを認識する。これをトリガーとしてAさん側のホームサーバ1は、振動付与体6を制御する際の制御量を算出する(S007)。   Further, when executing the vibration generation process, the home server 1 controls the vibration applying body 6 so that the magnitude of the vibration on the floor surface F1 matches the magnitude of the vibration indicated by the vibration data. More specifically, the home server 1 on the A side receives the vibration data from the home server 1 on the B side, so that the video data (strictly, video file data) received at substantially the same time is indicated. Recognize that the video contains a ground scene. Using this as a trigger, Mr. A's home server 1 calculates a control amount for controlling the vibration imparting body 6 (S007).

制御量の算出手順について説明すると、先ず、Aさん側のホームサーバ1は、Bさん側のホームサーバ1から受信した振動データに対してノイズ除去用のフィルタ処理を施す。その後、フィルタ処理後の振動データが示す値、すなわち、Bさんの動作によって生じた床面F2における振動の大きさの計測結果を特定する。   The control amount calculation procedure will be described. First, the Mr. A's home server 1 performs a noise removal filter process on the vibration data received from the Mr. B's home server 1. Thereafter, the value indicated by the vibration data after the filter processing, that is, the measurement result of the magnitude of vibration in the floor surface F2 generated by Mr. B's operation is specified.

次に、Aさん側のホームサーバ1は、メモリ内に記憶された図3に図示のテーブルデータを読み出す。そして、当該テーブルデータを参照することで、その前工程で特定した床面F2における振動の大きさの計測結果に応じた制御量を算出する。分かり易くは、図3に図示のテーブルデータが示す対応関係を相関式として表現し、当該相関式に上記の計測結果を代入することで制御量を算出する。   Next, Mr. A's home server 1 reads the table data shown in FIG. 3 stored in the memory. And the control amount according to the measurement result of the magnitude | size of the vibration in the floor surface F2 specified by the front process is calculated by referring the said table data. For easy understanding, the correspondence shown by the table data shown in FIG. 3 is expressed as a correlation equation, and the control amount is calculated by substituting the measurement result into the correlation equation.

制御量の算出後、Aさん側のホームサーバ1は、接地シーンを表示する映像音声再生処理と振動発生処理とを同時に実行する(S008)。このとき、Aさん側のホームサーバ1は、振動発生処理において、前工程で算出した制御量にて振動付与体6を制御する。この結果、図5の(B)に示すように、Aさんが立っている床面F1が接地シーンの表示と同期して振動するようになる。   After calculating the control amount, the home server 1 on the A side executes the video / audio reproduction process for displaying the ground scene and the vibration generation process at the same time (S008). At this time, Mr. A's home server 1 controls the vibration imparting body 6 with the control amount calculated in the previous step in the vibration generation process. As a result, as shown in FIG. 5B, the floor F1 on which Mr. A stands is vibrated in synchronization with the display of the grounding scene.

また、床面F1における振動の大きさは、床面F2における振動の大きさの計測結果に基づいて算出されたた制御量に応じた大きさとなる。この結果、Bさん側で発生した床面F2の振動がAさん側でより正確に再現されるようになり、臨場感をより一層向上させることが可能となる。なお、制御量を算出するにあたっては、それまでの学習結果、すなわち、振動発生処理におけるインプット値とアウトプット値との対応関係を参照することしている。これにより、制御量については、Bさん側で発生した床面F2の振動をAさん側で再現する上で妥当な量が算出されるようになる。   Further, the magnitude of the vibration on the floor surface F1 is a magnitude corresponding to the control amount calculated based on the measurement result of the magnitude of the vibration on the floor surface F2. As a result, the vibration of the floor surface F2 generated on the Mr. B side can be more accurately reproduced on the Mr. A side, and the sense of reality can be further improved. When calculating the control amount, the learning result so far, that is, the correspondence between the input value and the output value in the vibration generation process is referred to. As a result, as for the control amount, an appropriate amount is calculated for reproducing the vibration of the floor surface F2 generated on the Mr. B side on the Mr. A side.

ちなみに、制御量については、動画ファイルデータを受信する処理(データ受信処理)を実行してから接地シーンの表示タイミングまでの間に算出することとなっている。換言すると、制御量算出が完了するまで接地シーンの表示処理の実行が保留となり、これにより、制御量の算出時間が確保されることになる。その意味で、制御量算出が完了するまで接地シーンの表示処理の実行を遅らせる(遅延させる)こととしてもよい。   Incidentally, the control amount is calculated between the time when the process of receiving moving image file data (data reception process) is executed and the time when the ground scene is displayed. In other words, the execution of the ground scene display process is suspended until the control amount calculation is completed, thereby ensuring the control amount calculation time. In this sense, the execution of the ground scene display process may be delayed (delayed) until the control amount calculation is completed.

そして、床面F1を振動させたときには、その大きさを加速度センサ8により計測し、その計測結果を示す電気信号がロガー9に入力される(S009)。ロガー9は、電気信号から計測結果を示す振動データを生成し、同データをAさん側のホームサーバ1に伝送する。Aさん側のホームサーバ1は、振動データを受信すると、同データが示す計測結果、すなわち、振動発生処理におけるアウトプット値を特定する。   When the floor surface F1 is vibrated, the magnitude is measured by the acceleration sensor 8, and an electrical signal indicating the measurement result is input to the logger 9 (S009). The logger 9 generates vibration data indicating a measurement result from the electrical signal, and transmits the data to the home server 1 on the A side. When Mr. A's home server 1 receives the vibration data, the home server 1 specifies the measurement result indicated by the data, that is, the output value in the vibration generation process.

そして、Aさん側のホームサーバ1は、振動発生処理時に採用した制御量、すなわち、インプット値と上記のアウトプット値とをセットにし、新たな学習事項として記憶する。分かり易くは、図3に図示のテーブルデータに、新たにインプット値とアウトプット値のデータを追加する形で更新する。更新後のテーブルデータ(データが追加されたテーブルデータ)は、以降の振動発生処理における制御量の算出時に参照されるようになる。   Then, Mr. A's home server 1 sets the control amount adopted during the vibration generation process, that is, the input value and the output value, and stores them as a new learning item. For easy understanding, the table data shown in FIG. 3 is updated by adding new input value and output value data. The updated table data (table data to which data has been added) is referred to when calculating the control amount in the subsequent vibration generation process.

<<通信ユニットの変形例>>
以上までに説明してきた実施形態では、図5の(B)に示すように振動付与体6が一つだけ備えられている構成を例に挙げて説明した。ただし、これに限定されるものではなく、図6に示すように複数の振動付与体6が備えられていることとしてもよい。以下、変形例に係る通信ユニット100について説明する。なお、変形例に係る通信ユニット100は、複数の振動付与体6を備えている点では、先に述べた実施形態(本実施形態)に係る通信ユニット100とは相違するものの、それ以外の点については共通しており、以下では相違点のみを説明することとする。
<< Variation of communication unit >>
In the embodiment described above, the configuration in which only one vibration applying body 6 is provided as shown in FIG. 5B has been described as an example. However, the present invention is not limited to this, and a plurality of vibration imparting bodies 6 may be provided as shown in FIG. Hereinafter, the communication unit 100 according to the modification will be described. The communication unit 100 according to the modification is different from the communication unit 100 according to the above-described embodiment (this embodiment) in that the communication unit 100 includes a plurality of vibration imparting bodies 6. Are common, and only the differences will be described below.

変形例では、前述したように複数の振動付与体6が備えられており、詳しくは、映像表示器4の横幅方向(正面から見たときの横幅方向)における中央位置を挟んで互いに反対側にある位置に、それぞれ配置されている。図6に示すケースでは、映像表示器4の横幅方向においてその中央位置よりも一端側に1つの振動付与体6が、他端側に1つの振動付与体6がそれぞれ配置されている。なお、振動付与体6の個数については、特に限定されるものではなく、少なくとも一つ以上配置されていればよい。   In the modification, as described above, the plurality of vibration imparting bodies 6 are provided, and more specifically, on the opposite sides of the center position in the horizontal width direction (the horizontal width direction when viewed from the front) of the video display 4. Each is arranged at a certain position. In the case shown in FIG. 6, one vibration imparting body 6 is disposed on one end side and one vibration imparting body 6 is disposed on the other end side with respect to the horizontal position of the video display 4. Note that the number of the vibration imparting bodies 6 is not particularly limited, and at least one vibration imparting body 6 may be disposed.

また、図6に示すように、映像表示器4の横幅方向中央位置を境にして対称的に振動付与体6が配置されていることが望ましい。   In addition, as shown in FIG. 6, it is desirable that the vibration imparting bodies 6 are arranged symmetrically with respect to the central position in the horizontal width direction of the video display 4.

そして、変形例では、ホームサーバ1が振動発生処理において複数の振動付与体6の各々を制御する。この際、ホームサーバ1は、映像表示器4の中央位置よりも一端側に位置する振動付与体6、及び他端側に位置する振動付与体6の各々を、互いに異なる制御量にて制御することが可能である。つまり、変形例では、一端側の振動付与体6及び他端側の振動付与体6の各々を個別に制御することが可能である。これにより、Bさん側で発生した床面F2の振動を、その発生位置まで含めてAさん側で正確に再現し得るようになり、臨場感を一段と向上させることが可能となる。   In the modification, the home server 1 controls each of the plurality of vibration imparting bodies 6 in the vibration generation process. At this time, the home server 1 controls each of the vibration imparting body 6 located on one end side and the vibration imparting body 6 located on the other end side with respect to the central position of the video display device 4 with different control amounts. It is possible. That is, in the modification, it is possible to individually control each of the vibration applying body 6 on one end side and the vibration applying body 6 on the other end side. As a result, the vibration of the floor surface F2 generated on the Mr. B side can be accurately reproduced on the Mr. A side including the generation position, and the realism can be further improved.

具体的に説明すると、図6に示すようにBさんの全身像が映像表示器4の中央位置から幾分ずれた位置に表示されるとき、ホームサーバ1は、一端側に位置する振動付与体6と他端側に位置する振動付与体6との間で制御量を変える。ここで、制御対象となる項目としては、各振動付与体6が付与する振動の大きさや振動の波形の位相等が挙げられる。   Specifically, as shown in FIG. 6, when the whole body image of Mr. B is displayed at a position slightly deviated from the center position of the video display 4, the home server 1 has a vibration imparting body located on one end side. The control amount is changed between 6 and the vibration imparting body 6 located on the other end side. Here, the items to be controlled include the magnitude of vibration applied by each vibration applying body 6 and the phase of the vibration waveform.

以上のように振動付与体6間で制御量を変えた上で振動発生処理を実行すると、Aさんは、床面F1における振動の発生箇所を、映像表示器4の中央位置から見て横幅方向に幾分ずれた位置(Bさんの全身像が表示されている位置と同じ位置)と認識するようになる。これにより、Bさんの存在感を、その立ち位置まで含めて良好に再現することが可能となり、以て、より効果的に臨場感を向上させることが可能となる。   When the vibration generation process is executed after changing the control amount between the vibration imparting bodies 6 as described above, Mr. A looks in the horizontal width direction when the vibration generation location on the floor surface F1 is viewed from the center position of the video display 4. To a position slightly deviated (the same position as the position where Mr. B's whole body image is displayed). As a result, Mr. B's presence can be reproduced well including the standing position, and thus the presence can be improved more effectively.

<<その他の実施形態>>
上記の実施形態では、本発明の通信ユニットについて、一例を挙げて説明した。ただし、上記の実施形態は、本発明の理解を容易にするための一例に過ぎず、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは勿論である。
<< Other Embodiments >>
In the above embodiment, the communication unit of the present invention has been described with an example. However, said embodiment is only an example for making an understanding of this invention easy, and does not limit this invention. The present invention can be changed and improved without departing from the gist thereof, and the present invention includes the equivalents thereof.

また、上記の実施形態では、床面を振動させる機器(すなわち、振動付与体6)が対話用通信の当事者双方の自宅に備えられていることとしたが、これに限定されるものではない。すなわち、一方のユーザ側に振動付与体6が備えられており、他方のユーザ側(通信相手側)には備えられていなくてもよい。   In the above embodiment, the device that vibrates the floor (that is, the vibration imparting body 6) is provided at the homes of both parties of the conversation communication, but the present invention is not limited to this. That is, the vibration imparting body 6 is provided on one user side, and may not be provided on the other user side (communication partner side).

また、上記の実施形態では、通信相手が行う動作によって発生した床面F2の振動の大きさを計測する計測器(すなわち、加速度センサ8)が備えられていることとした。そして、対話用通信の間に床面F2が振動すると、当該振動の大きさの計測結果を示す振動データを取得し、同データが示す計測結果と同じ大きさの振動をユーザ側で再現することとした。ただし、これに限定されるものではなく、ユーザ側で振動を再現するに際して通信相手側から振動データを入手しないこととしてもよい。例えば、接地シーンを含む映像の映像データを解析することに依り、通信相手が足を床面F2に接地させる動作を行う際の動作量(分かり易くは、足の移動量)を算出し、その算出結果に応じた大きさにてユーザ側の床面F1が振動するようにすればよい。なお、振動データを入手して床面F1を振動させる際の参考データとして用いる方が、通信相手側で発生した床面F2の振動をユーザ側でより正確に再現することが可能となり、これにより、臨場感がより一層向上することになる。かかる点においては、上記の実施形態の方が望ましい。   In the above-described embodiment, the measuring instrument (that is, the acceleration sensor 8) that measures the magnitude of the vibration of the floor surface F2 generated by the operation performed by the communication partner is provided. When the floor surface F2 vibrates during the communication for conversation, vibration data indicating the measurement result of the magnitude of the vibration is acquired, and the vibration having the same magnitude as the measurement result indicated by the data is reproduced on the user side. It was. However, the present invention is not limited to this, and vibration data may not be obtained from the communication partner when reproducing vibration on the user side. For example, by analyzing the video data of the video including the grounding scene, the amount of movement (the amount of movement of the foot is easy to understand) when the communication partner performs the operation of grounding the foot on the floor F2, What is necessary is just to make it the floor surface F1 by the side of a user vibrate by the magnitude | size according to a calculation result. Note that the vibration data of the floor surface F2 generated on the communication partner side can be more accurately reproduced on the user side by obtaining the vibration data and using it as reference data when the floor surface F1 is vibrated. , The sense of reality will be further improved. In this respect, the above embodiment is more desirable.

また、上記の実施形態では、制御装置としてホームサーバ1を用いることとしたが、これに限定されるものではない。すなわち、制御装置としての機能を発揮するものであれば特に制限なく利用可能であり、例えばパソコンを制御装置として利用することとしてもよい。   In the above embodiment, the home server 1 is used as the control device, but the present invention is not limited to this. In other words, any device can be used without particular limitation as long as it functions as a control device. For example, a personal computer may be used as the control device.

1 ホームサーバ
2 カメラ
3 マイク
4 映像表示器
5 スピーカ
6 振動付与体
7 増幅回路
8 加速度センサ
9 ロガー
100 通信ユニット
DESCRIPTION OF SYMBOLS 1 Home server 2 Camera 3 Microphone 4 Video display device 5 Speaker 6 Vibration imparting body 7 Amplifier circuit 8 Acceleration sensor 9 Logger 100 Communication unit

Claims (4)

ユーザが通信相手と通信をする際に用いられる通信ユニットであって、
前記通信相手の映像を表示する映像表示器と、
前記ユーザが立っている第1床面に対して振動を付与する振動付与体と、
前記通信相手との通信を通じて前記映像を示す映像データを取得する取得処理と、取得した前記映像データが示す前記映像を前記映像表示器に表示させる映像表示処理と、前記振動付与体を制御して前記第1床面を振動させる振動発生処理と、を実行する制御装置と、を備え、
該制御装置は、前記取得処理において、前記通信相手の下に位置する第2床面から離れた状態にある前記通信相手の足が前記第2床面に接地する接地シーンを含む前記映像を示す前記映像データを取得した際、前記接地シーンが表示されるタイミングと前記第1床面が振動するタイミングとが一致するように前記映像表示処理と前記振動発生処理とを実行し、
前記制御装置は、前記通信相手の足が前記第2床面に接地した際に発生した振動の大きさを示す振動データを取得する第2の取得処理を実行し、前記振動発生処理において、前記第1床面での振動の大きさと前記振動データが示す振動の大きさとが一致するように前記振動付与体を制御し、
前記第1床面における振動の大きさを計測する計測器を更に備え、
前記制御装置は、前記振動発生処理における前記振動付与体の制御量と、該制御量にて前記振動付与体を制御したときに前記計測器が計測した前記第1床面における振動の大きさの計測結果と、の対応関係を記憶し、
前記制御装置は、前記取得処理を実行してから前記映像表示処理における前記接地シーンが表示されるタイミングまでの間に、前記振動データ及び前記対応関係に基づいて前記制御量を算出することを特徴とする通信ユニット。
A communication unit used when a user communicates with a communication partner,
A video display for displaying the video of the communication partner;
A vibration imparting body that imparts vibration to the first floor surface on which the user stands;
An acquisition process for acquiring video data indicating the video through communication with the communication partner, a video display process for displaying the video indicated by the acquired video data on the video display, and controlling the vibration imparting body. A vibration generating process for vibrating the first floor surface,
In the acquisition process, the control device shows the video including a grounding scene in which a foot of the communication partner in a state of being separated from the second floor located under the communication partner touches the second floor. When the video data is acquired, the video display processing and the vibration generation processing are executed so that the timing at which the grounding scene is displayed matches the timing at which the first floor surface vibrates ,
The control device performs a second acquisition process of acquiring vibration data indicating a magnitude of vibration generated when the communication partner's foot touches the second floor surface, and in the vibration generation process, Controlling the vibration imparting body so that the magnitude of vibration on the first floor surface matches the magnitude of vibration indicated by the vibration data;
A measuring instrument for measuring the magnitude of vibration on the first floor surface;
The control device includes: a control amount of the vibration imparting body in the vibration generation process; and a magnitude of vibration on the first floor measured by the measuring instrument when the vibration imparting body is controlled by the control amount. Memorize the correspondence with measurement results,
The control device calculates the control amount based on the vibration data and the correspondence relationship between the execution of the acquisition process and the timing at which the grounding scene is displayed in the video display process. Communication unit.
前記振動付与体は、前記映像表示器の横幅方向における中央位置を挟んで互いに反対側にある位置に、それぞれ配置されていることを特徴とする請求項1に記載の通信ユニット。 2. The communication unit according to claim 1, wherein the vibration imparting bodies are respectively disposed at positions opposite to each other across a central position in a lateral width direction of the video display. 前記制御装置は、前記横幅方向において前記中央位置よりも一端側に位置する前記振動付与体、及び、前記中央位置よりも他端側に位置する前記振動付与体の各々を、互いに異なる制御量にて制御することを特徴とする請求項に記載の通信ユニット。 The control device is configured to control each of the vibration imparting body positioned at one end side from the central position and the vibration imparting body positioned at the other end side from the central position in the lateral width direction. The communication unit according to claim 2 , wherein the communication unit is controlled. 前記映像表示器が前記映像を表示するために有する画面の下端領域は、前記第1床面の上方位置にあって前記第1床面周辺に位置し、
前記制御装置は、前記取得処理において、前記通信相手の全身像と前記第2床面とを含む前記映像を示す前記映像データを取得し、前記映像表示処理において、前記下端領域に前記映像中の前記第2床面が映るように前記映像を前記映像表示器に表示させることを特徴とする請求項1乃至のいずれか一項に記載の通信ユニット。
The lower end area of the screen that the video display has for displaying the video is located above the first floor surface and located around the first floor surface,
The control apparatus acquires the video data indicating the video including the whole body image of the communication partner and the second floor surface in the acquisition process, and in the video display process, The communication unit according to any one of claims 1 to 3 , wherein the video is displayed on the video display so that the second floor surface is reflected.
JP2014066435A 2014-03-27 2014-03-27 communication unit Active JP6475921B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014066435A JP6475921B2 (en) 2014-03-27 2014-03-27 communication unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014066435A JP6475921B2 (en) 2014-03-27 2014-03-27 communication unit

Publications (2)

Publication Number Publication Date
JP2015192208A JP2015192208A (en) 2015-11-02
JP6475921B2 true JP6475921B2 (en) 2019-02-27

Family

ID=54426422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014066435A Active JP6475921B2 (en) 2014-03-27 2014-03-27 communication unit

Country Status (1)

Country Link
JP (1) JP6475921B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6507049B2 (en) * 2015-06-30 2019-04-24 Necネッツエスアイ株式会社 Video system
EP3780562B1 (en) * 2018-05-23 2022-12-21 Sony Group Corporation Information processing device, information processing method, and program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034787A (en) * 1999-07-22 2001-02-09 Atr Media Integration & Communications Res Lab Avatar communication system
JP2003134505A (en) * 2001-10-22 2003-05-09 Ishikawajima Harima Heavy Ind Co Ltd Universe observatory
JP2004200929A (en) * 2002-12-17 2004-07-15 Matsushita Electric Ind Co Ltd Spatial image sharing system
JP2004221815A (en) * 2003-01-14 2004-08-05 Oki Electric Ind Co Ltd Network terminal
JP2006191460A (en) * 2005-01-07 2006-07-20 Ricoh Co Ltd Environmental information acquiring and reproducing system, video conference system, vehicle, clothing, and remote control system
JP4923420B2 (en) * 2005-03-15 2012-04-25 日本電気株式会社 Movie shooting / playback system, shooting / playback method thereof, portable device thereof, and shooting / playback method thereof
JP2007004588A (en) * 2005-06-24 2007-01-11 Canon Inc Information processor and information processing method
JP4582329B2 (en) * 2005-07-22 2010-11-17 日本電気株式会社 Virtual video signal generation method and transmission / reception terminal
JP2008301399A (en) * 2007-06-04 2008-12-11 Nippon Telegr & Teleph Corp <Ntt> Television conference apparatus, television conference method, television conference system, computer program and recording medium
US7911328B2 (en) * 2007-11-21 2011-03-22 The Guitammer Company Capture and remote reproduction of haptic events in synchronous association with the video and audio capture and reproduction of those events
JP2009293758A (en) * 2008-06-09 2009-12-17 Konica Minolta Business Technologies Inc Mount damper and image forming device using the same
JP2012095230A (en) * 2010-10-28 2012-05-17 Yamaha Corp Sound-field transmission system, atmosphere transmission system, and reproducing device therefor
JP2013162378A (en) * 2012-02-07 2013-08-19 Tokai Univ Perfumed video presentation apparatus and content production method

Also Published As

Publication number Publication date
JP2015192208A (en) 2015-11-02

Similar Documents

Publication Publication Date Title
US10593167B2 (en) Crowd-based haptics
JP6664137B2 (en) Tactile recording and playback
US9968846B2 (en) Information processing apparatus, storage medium having stored therein information processing program, information processing system, and information processing method
JP6516477B2 (en) System and method for authoring user generated content
US10532279B2 (en) Video gameplay haptics
EP2840463A1 (en) Haptically enabled viewing of sporting events
EP2778901A1 (en) Method and haptic device for encoding and decoding haptic information
US20200077148A1 (en) Video distribution system, video distribution method, and storage medium storing video distribution program
JP2015232786A (en) Vibration generating system, vibration generating program, and vibration generating method
KR20100021387A (en) Apparatus and method to perform processing a sound in a virtual reality system
JP7198244B2 (en) Video distribution system, video distribution method, and video distribution program
CN115279466A (en) System, game console and method for adjusting a virtual environment
JP6475921B2 (en) communication unit
JP2020102782A (en) Content distribution system, distribution device, reception device, and program
JP6360703B2 (en) Status monitoring unit
WO2015075191A1 (en) Method for generating haptic coefficients using an autoregressive model, signal and device for reproducing such coefficients
WO2020026443A1 (en) Vibration control system for haptic representation, vibration generating device for haptic representation, vibration control device for haptic representation, and vibration control method for haptic representation
US20170246534A1 (en) System and Method for Enhanced Immersion Gaming Room
US20230199420A1 (en) Real-world room acoustics, and rendering virtual objects into a room that produce virtual acoustics based on real world objects in the room
JP7140237B2 (en) Vibration sensation device
KR20210056414A (en) System for controlling audio-enabled connected devices in mixed reality environments
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
EP4358084A1 (en) Audio cancellation system and method
Danieau Contribution to the study of haptic feedback for improving the audiovisual experience
JP2022173870A (en) Appreciation system, appreciation device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190204

R150 Certificate of patent or registration of utility model

Ref document number: 6475921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250