JP2013009111A - Communication system and communication apparatus - Google Patents

Communication system and communication apparatus Download PDF

Info

Publication number
JP2013009111A
JP2013009111A JP2011139821A JP2011139821A JP2013009111A JP 2013009111 A JP2013009111 A JP 2013009111A JP 2011139821 A JP2011139821 A JP 2011139821A JP 2011139821 A JP2011139821 A JP 2011139821A JP 2013009111 A JP2013009111 A JP 2013009111A
Authority
JP
Japan
Prior art keywords
user
video
video data
display
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011139821A
Other languages
Japanese (ja)
Other versions
JP5834533B2 (en
Inventor
Tokuro Yamaguchi
徳郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2011139821A priority Critical patent/JP5834533B2/en
Publication of JP2013009111A publication Critical patent/JP2013009111A/en
Application granted granted Critical
Publication of JP5834533B2 publication Critical patent/JP5834533B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a communication system for enhancing presence given to a user.SOLUTION: The communication system enables communication between a first user and a second user. The communication system includes: means for holding video data on a video obtained by imaging the second user by using a camera; a display for screen-displaying the video depending on the held video data for displaying it to the first user; a direction control mechanism turning a screen direction of the display to a direction corresponding to control; means for acquiring physical position information of the first user or the second user; and means for determining and controlling the new screen direction of the display in accordance with the physical position information of the first user or the second user.

Description

この発明は、コミュニケーションシステム及びコミュニケーション装置に関し、例えば、音声及び映像を用いた通話で遠隔コミュニケーションを実現するコミュニケーションシステムに適用し得る。   The present invention relates to a communication system and a communication apparatus, and can be applied to, for example, a communication system that realizes remote communication by voice and video calls.

遠隔コミュニケーションの重要性はますます高まっており、遠隔地の会話者の存在感や場の臨場感を視覚的および聴覚的に遠隔地に伝えるコミュニケーションシステムが注目されている。   The importance of remote communication is increasing, and a communication system that visually and audibly conveys the presence of a remote conversation person and the realism of the place to the remote place is drawing attention.

従来のコミュニケーションシステムに関する技術としては、特許文献1〜4の記載技術がある。   As technologies related to conventional communication systems, there are technologies described in Patent Documents 1 to 4.

特許文献1の記載技術は、人間の頭部形状を模したダミーヘッドに、遠隔地の会話者の表情を表示することで、視覚的、聴覚的に高い臨場感を持った高臨場感通信装置を提供するものである。しかしながら、臨場感を提供するためにダミーヘッドのような大がかりな装置を用意しなければならず、容易に臨場感を生むことができない。これに対して、特許文献2では、遠隔の会議出席者の顔がほぼ実物大にビデオモニタに映され、直接目で見つめているような感覚を与え、自動的または手動的にビデオモニタは発話者の方を向き、遠隔の会議出席者が顔を回転している感覚を与えることができる装置について記載されている。   The technology described in Patent Document 1 is a highly realistic communication device having a high visual and auditory sense of realism by displaying the expression of a remote conversation person on a dummy head simulating the shape of a human head. Is to provide. However, in order to provide a sense of realism, a large-scale device such as a dummy head must be prepared, and the realism cannot be easily produced. On the other hand, in Patent Document 2, the face of a remote conference attendee is projected on a video monitor almost in real size, giving a feeling of staring directly with the eyes, and the video monitor automatically or manually speaks. A device is described that can provide a sense that a remote conference attendee is turning his face.

また、特許文献3では、イヤホンマイクからの音源信号を解析してイヤホンマイクの位置を特定し、その位置情報に基づいて携帯電話端末のディスプレイの向きを変え、イヤホンマイクに正対させる情報処理端末について記載されている。さらにまた、特許文献4では、人体の接近を検知し、その接近する方向にディスプレイを向ける近距離通信装置について記載されている。   Further, in Patent Document 3, an information processing terminal that analyzes a sound source signal from an earphone microphone to identify the position of the earphone microphone, changes the orientation of the display of the mobile phone terminal based on the position information, and directly faces the earphone microphone. Is described. Furthermore, Patent Document 4 describes a short-range communication device that detects the approach of a human body and directs the display in the approaching direction.

特開2005−269549号公報JP 2005-269549 A 特表2001−524286号公報Special table 2001-524286 特開2003−169161号公報JP 2003-169161 A 特開2003−289273号公報JP 2003-289273 A

しかしながら、特許文献2の記載技術は、特許文献1の記載技術と同様に、高い臨場感を提供するために大がかりな装置を用いなければならず、またビデオモニタの移動回転と遠隔地からの映像の変化は統合的なものではない。   However, the technology described in Patent Document 2, like the technology described in Patent Document 1, requires use of a large-scale device to provide a high sense of realism, and the moving rotation of the video monitor and the image from a remote location. These changes are not integrated.

また、特許文献3、4の記載技術は、双方とも、利用者の動作に応じてディスプレイの向きを変化させることに特徴があるが、利用者の労力を軽減させることが目的であり、遠隔地の会話者を表示したり、遠隔コミュニケーションを支援したりする目的ではない。また、特許文献3、4の記載技術は、ディスプレイの回転と遠隔地からの映像の変化は統合的なものではない。   In addition, both of the technologies described in Patent Documents 3 and 4 are characterized in that the orientation of the display is changed in accordance with the user's operation, but the purpose is to reduce the user's labor. It is not intended to display any other talkers or to support remote communication. In the techniques described in Patent Documents 3 and 4, the rotation of the display and the change of the image from a remote place are not integrated.

そのため、利用者に与える臨場感を向上させることができるコミュニケーションシステム及びコミュニケーション装置が望まれている。   Therefore, a communication system and a communication device that can improve a sense of presence given to a user are desired.

第1の本発明は、第1の利用者と第2の利用者との間のコミュニケーションを可能とするコミュニケーションシステムにおいて、(1)1又は複数のカメラを用いて、上記第2の利用者を撮像した映像の映像データを保持する映像データ保持手段と、(2)上記映像データ保持手段が保持した映像データに基づく映像を、上記第1の利用者に提示するために画面表示するディスプレイと、上記ディスプレイの画面方向を制御に応じた方向に向ける画面方向制御機構とを備える映像表示手段と、(3)上記第1の利用者又は上記第2の利用者の身体的位置情報を取得する身体的位置情報取得手段と、(4)上記第1の利用者又は上記第2の利用者の身体的位置情報に応じて、上記ディスプレイの新たな画面方向を決定し、上記ディスプレイの画面方向が決定した画面方向となるように、上記画面方向制御機構を制御する画面方向制御手段とを有することを特徴とする。   A first aspect of the present invention is a communication system that enables communication between a first user and a second user. (1) Using the one or a plurality of cameras, the second user is Video data holding means for holding video data of the captured video; (2) a display for displaying a video based on the video data held by the video data holding means for presentation to the first user; Image display means comprising a screen direction control mechanism for directing the screen direction of the display in a direction according to control; and (3) a body for acquiring physical position information of the first user or the second user. And (4) determining a new screen direction of the display according to the physical position information of the first user or the second user, and As a screen direction in which direction is determined, and having a screen direction control means for controlling the screen direction control mechanism.

第2の本発明は、第1の利用者と第2の利用者との間のコミュニケーションを可能とするコミュニケーションシステムを構成する、上記第1の利用者が利用する第1のコミュニケーション装置において、(1)上記第2の利用者が利用する第2のコミュニケーション装置から、1又は複数のカメラを用いて、上記第2の利用者を撮像した映像データを取得する映像データ取得手段と、(2)上記映像データ取得手段が取得した映像データの映像を、上記第1の利用者に提示するために画面表示するディスプレイと、上記ディスプレイの画面方向を制御に応じた方向に向ける画面方向制御機構とを備える映像表示手段と、(3)上記第1の利用者又は上記第2の利用者の身体的位置情報を取得する身体的位置情報取得手段と、(4)上記第1の利用者又は上記第2の利用者の身体的位置情報に応じて、上記ディスプレイの新たな画面方向を決定し、上記ディスプレイの画面方向が決定した画面方向となるように、上記画面方向制御機構を制御する画面方向制御手段とを有することを特徴とする。   According to a second aspect of the present invention, in the first communication device used by the first user, constituting a communication system that enables communication between the first user and the second user ( 1) Video data acquisition means for acquiring video data obtained by imaging the second user using one or a plurality of cameras from the second communication device used by the second user; (2) A display for displaying the video of the video data acquired by the video data acquisition means to be presented to the first user, and a screen direction control mechanism for directing the screen direction of the display in a direction according to the control; Video display means, (3) physical position information acquisition means for acquiring physical position information of the first user or the second user, and (4) the first user A new screen direction of the display is determined according to the physical position information of the user or the second user, and the screen direction control mechanism is set so that the screen direction of the display becomes the determined screen direction. And a screen direction control means for controlling.

本発明によれば、利用者に与える臨場感を向上させるコミュニケーションシステムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the communication system which improves the realistic feeling given to a user can be provided.

第1の実施形態に係るコミュニケーション装置(コミュニケーション装置本体)の機能的構成について示したブロック図である。It is the block diagram shown about the functional structure of the communication apparatus (communication apparatus main body) which concerns on 1st Embodiment. 第1の実施形態に係るコミュニケーションシステムの全体構成について示したブロック図である。It is the block diagram shown about the whole structure of the communication system which concerns on 1st Embodiment. 第1の実施形態に係るコミュニケーション装置の斜視図である。1 is a perspective view of a communication device according to a first embodiment. 第1の実施形態に係る映像処理部が、利用者情報として把握する利用者頭部方向について示した説明図である。It is explanatory drawing shown about the user head direction which the video processing part which concerns on 1st Embodiment grasps | ascertains as user information. 第1の実施形態に係る映像合成部及び回転制御部の処理について示した説明図である。It is explanatory drawing shown about the process of the image | video synthetic | combination part and rotation control part which concern on 1st Embodiment. 第1の実施形態に係るコミュニケーション装置の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the communication apparatus which concerns on 1st Embodiment. 第2の実施形態に係る映像処理部が、利用者情報として把握する利用者視線方向について示した説明図である。It is explanatory drawing shown about the user gaze direction which the video processing part which concerns on 2nd Embodiment grasps | ascertains as user information. 第2の実施形態に係る映像合成部及び回転制御部が行う処理について示した説明図である。It is explanatory drawing shown about the process which the image | video synthetic | combination part and rotation control part which concern on 2nd Embodiment perform. 第2の実施形態に係るコミュニケーション装置の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the communication apparatus which concerns on 2nd Embodiment. 第3の実施形態に係るコミュニケーション装置を構成するカメラシステムの構成について示した説明図である。It is explanatory drawing shown about the structure of the camera system which comprises the communication apparatus which concerns on 3rd Embodiment. 第3の実施形態に係るコミュニケーション装置の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the communication apparatus which concerns on 3rd Embodiment. 第4の実施形態に係るコミュニケーション装置の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the communication apparatus which concerns on 4th Embodiment. 第5の実施形態に係るコミュニケーション装置(コミュニケーション装置本体)の機能的構成について示したブロック図である。It is the block diagram shown about the functional structure of the communication apparatus (communication apparatus main body) which concerns on 5th Embodiment. 第5の実施形態に係るコミュニケーション装置の動作について示したフローチャートである。It is the flowchart shown about operation | movement of the communication apparatus which concerns on 5th Embodiment.

(A)第1の実施形態
以下、本発明によるコミュニケーションシステム及びコミュニケーション装置の第1の実施形態を、図面を参照しながら詳述する。
(A) First Embodiment Hereinafter, a first embodiment of a communication system and a communication device according to the present invention will be described in detail with reference to the drawings.

(A−1)第1の実施形態の構成
図2は、この実施形態のコミュニケーションシステム1の全体構成を示すブロック図である。
(A-1) Configuration of the First Embodiment FIG. 2 is a block diagram showing the overall configuration of the communication system 1 of this embodiment.

図2に示すように、コミュニケーションシステム1では、ネットワークNを介して、2台のコミュニケーション装置10(10−1、10−2)の間が接続されている。コミュニケーション装置10は、ビデオ会議機能等のネットワークNを介した遠隔コミュニケーション機能を利用者に提供する装置である。   As shown in FIG. 2, in the communication system 1, two communication devices 10 (10-1 and 10-2) are connected via a network N. The communication device 10 is a device that provides a user with a remote communication function via the network N such as a video conference function.

なお、以下では、コミュニケーション装置10−1は第1の利用者U1が利用するものであるものとし、コミュニケーション装置10−2は、第2の利用者U2が利用するものであるものとする。   In the following, it is assumed that the communication device 10-1 is used by the first user U1, and the communication device 10-2 is used by the second user U2.

また、以下では、それぞれのコミュニケーション装置10において、自装置の利用者を「自装置利用者」と呼び、ネットワークNを介して対向するコミュニケーション装置10の利用者を「遠隔側利用者」と表わすものとする。また、それぞれのコミュニケーション装置10において、自装置と、ネットワークNを介して対向するコミュニケーション装置10のことを「遠隔側装置」と表わすものとする。なお、ここでは、説明を簡易とするために、コミュニケーション装置10−1とコミュニケーション装置10−2とは同じ構成であるものとして説明するが、異なる構成としても良い。   Hereinafter, in each communication device 10, the user of the own device is referred to as “own device user”, and the user of the communication device 10 facing through the network N is referred to as “remote side user”. And Further, in each communication device 10, the communication device 10 facing the own device via the network N is represented as a “remote device”. Here, in order to simplify the description, the communication device 10-1 and the communication device 10-2 are described as having the same configuration, but may be configured differently.

次に、コミュニケーション装置10の構成について説明する。   Next, the configuration of the communication device 10 will be described.

図3は、コミュニケーション装置10の斜視図である。図3に示すように、コミュニケーション装置10は、コミュニケーション装置本体11、カメラ12、及びディスプレイ13を有している。   FIG. 3 is a perspective view of the communication device 10. As illustrated in FIG. 3, the communication device 10 includes a communication device body 11, a camera 12, and a display 13.

コミュニケーション装置本体11は、コミュニケーション装置10の全体を制御する機能等を担っている。コミュニケーション装置10では、コミュニケーション装置本体11により、カメラ12及びディスプレイ13が制御されている。コミュニケーション装置本体11としては、例えば、プログラムを実行するプロセッサ及びネットワークに接続するインタフェースを備える情報処理装置(例えば、PCや、専用装置等)に、実施形態のコミュニケーションプログラム等をインストールすることにより実現するようにしても良く、その場合でも、コミュニケーション装置10の機能的構成は、図1のように示すことができる。   The communication device body 11 has a function of controlling the communication device 10 as a whole. In the communication device 10, the camera 12 and the display 13 are controlled by the communication device body 11. The communication device main body 11 is realized, for example, by installing the communication program of the embodiment in an information processing device (for example, a PC, a dedicated device, or the like) including a processor that executes a program and an interface connected to a network. Even in such a case, the functional configuration of the communication device 10 can be illustrated as shown in FIG.

カメラ12は、自装置の利用者を撮像するためのカメラ本体121と、カメラ本体121を載置するカメラ回転板122とを有している。   The camera 12 includes a camera main body 121 for capturing an image of a user of the device itself, and a camera rotating plate 122 on which the camera main body 121 is placed.

カメラ本体121は、コミュニケーション装置本体11の制御に応じて撮像した映像の映像データを、コミュニケーション装置本体11に供給する。また、カメラ本体121としては、例えば、既存のビデオ会議端末等に利用されるCCDカメラ等を適用することができる。   The camera body 121 supplies video data of a video imaged according to the control of the communication apparatus body 11 to the communication apparatus body 11. As the camera body 121, for example, a CCD camera used for an existing video conference terminal or the like can be applied.

カメラ回転板122は、コミュニケーション装置本体11の制御により動作する回転機構(図示せず、例えば、モータ等)により、左右方向(水平方向)に、時計回り又は反時計回りに回転し、載置しているカメラ本体121の撮像する方向を変更させる。言い換えると、コミュニケーション装置10では、コミュニケーション装置本体11により、カメラ回転板122が備える上述の回転機構を動作させることにより、カメラ本体121の撮像する方向を制御している。カメラ12としては、例えば、既存のビデオ会議端末等で用いられる撮像方向を変更することができるカメラ(例えば、ロボットカメラ等)を用いることができる。なお、第1の実施形態では、カメラ本体121の撮像する方向を制御する手段は限定されないものであり、上述の回転機構以外の手段(例えば、首振り機構を備えるスタンド等)を適用するようにしても良い。また、図3では、カメラ12とコミュニケーション装置本体11との間の物理インタフェースは限定されないものであり、既存の有線(例えば、USBケーブル等)や無線のインタフェースを適用することができる。   The camera rotating plate 122 is rotated and placed clockwise or counterclockwise in the left-right direction (horizontal direction) by a rotating mechanism (not shown, for example, a motor) that operates under the control of the communication apparatus body 11. The imaging direction of the camera body 121 is changed. In other words, in the communication device 10, the communication device body 11 controls the direction in which the camera body 121 captures an image by operating the above-described rotation mechanism included in the camera rotation plate 122. As the camera 12, for example, a camera (for example, a robot camera) that can change the imaging direction used in an existing video conference terminal or the like can be used. In the first embodiment, the means for controlling the imaging direction of the camera body 121 is not limited, and means other than the rotation mechanism described above (for example, a stand having a swing mechanism) is applied. May be. In FIG. 3, the physical interface between the camera 12 and the communication apparatus main body 11 is not limited, and an existing wired (for example, USB cable) or wireless interface can be applied.

ディスプレイ13は、コミュニケーション装置本体11から出力された映像(映像信号)を当該第1の利用者U1に表示出力するためのディスプレイ本体131と、ディスプレイ本体131を載置するディスプレイ回転板132とを有している。   The display 13 includes a display main body 131 for displaying and outputting the video (video signal) output from the communication apparatus main body 11 to the first user U1, and a display rotating plate 132 on which the display main body 131 is placed. is doing.

ディスプレイ本体131としては、例えば、既存のPC等で用いられる液晶ディスプレイ等を用いることができる。   As the display body 131, for example, a liquid crystal display used in an existing PC or the like can be used.

ディスプレイ回転板132は、コミュニケーション装置本体11の制御により動作する回転機構(図示せず、例えば、モータ等)により、水平方向(左右方向)に、時計回り又は反時計回りに回転し、載置しているディスプレイ本体131の画面の方向を変更させる。言い換えると、コミュニケーション装置10では、コミュニケーション装置本体11により、ディスプレイ回転板132が備える上述の回転機構を動作させ、ディスプレイ本体131の画面を向ける方向を制御している。なお、第1の実施形態では、ディスプレイ本体131の画面方向を制御する手段は限定されないものであり、カメラ12と同様に、上述の回転機構以外の手段を適用することができる。また、図3では、ディスプレイ13の図示しない回転機構とコミュニケーション装置本体11との間の物理インタフェースは限定されないものであり、既存の有線(例えば、USBケーブル等)や無線のインタフェースを適用することができる。また、ディスプレイ本体131が、コミュニケーション装置本体11から映像信号の供給を受けるための物理インタフェースについても限定されないものであり、例えば、既存のPC等のディスプレイと同様のインタフェースを適用することができる。   The display rotation plate 132 is rotated and placed in a horizontal direction (left and right direction) clockwise or counterclockwise by a rotation mechanism (not shown, for example, a motor) operated by control of the communication device main body 11. The screen direction of the display main body 131 is changed. In other words, in the communication device 10, the communication device main body 11 operates the above-described rotation mechanism included in the display rotation plate 132 to control the direction in which the screen of the display main body 131 is directed. In the first embodiment, means for controlling the screen direction of the display main body 131 is not limited, and means other than the rotation mechanism described above can be applied as in the camera 12. In FIG. 3, the physical interface between the rotation mechanism (not shown) of the display 13 and the communication apparatus main body 11 is not limited, and an existing wired (for example, USB cable) or wireless interface can be applied. it can. Further, the physical interface for the display main body 131 to receive the supply of the video signal from the communication apparatus main body 11 is not limited. For example, the same interface as that of a display such as an existing PC can be applied.

次に、図1を用いて、コミュニケーション装置本体11の機能的構成について説明する。   Next, the functional configuration of the communication apparatus main body 11 will be described with reference to FIG.

コミュニケーション装置10を構成するコミュニケーション装置本体11は、機能的には、映像取得部101、映像処理部102、情報送信部103、情報受信部104、映像合成部105、映像表示部106、回転制御部107、及び制御部108を有している。なお、図1においては図示を省略しているが、コミュニケーション装置本体11は、自装置利用者が発話する音声を捕捉するマイクや、遠隔側装置から供給された遠隔側利用者が発話した音声を出力するスピーカ等、既存のビデオ会議端末と同様の構成も備えているものとする。   Functionally, the communication device main body 11 constituting the communication device 10 functionally includes a video acquisition unit 101, a video processing unit 102, an information transmission unit 103, an information reception unit 104, a video synthesis unit 105, a video display unit 106, and a rotation control unit. 107 and a control unit 108. In addition, although illustration is abbreviate | omitted in FIG. 1, the communication apparatus main body 11 capture | acquires the voice which the remote side user uttered by the microphone which captures the voice which the own apparatus user utters, or the remote side apparatus supplied. It is assumed that a configuration similar to that of an existing video conference terminal such as an output speaker is also provided.

制御部108は、当該コミュニケーション装置10全体の動作を制御するものであり、例えば、当該コミュニケーション装置10内の各構成要素との間で制御情報のやりとりをしたり、他のコミュニケーション装置10との呼接続等を行う機能等を担っている。また、制御部108は、上述の図示しないマイクから捕捉した自装置利用者の発話した音声の音声信号(音声データ)を遠隔側装置に送出する処理も行うものとする。さらに、制御部108は、遠隔側装置から供給される遠隔側利用者の発話した音声信号(音声データ)の音声を、上述の図示しないスピーカに出力する処理も行うものとする。なお、この実施形態において、コミュニケーション装置10は、音声及び映像を用いて遠隔側利用者とコミュニケーション(通話)可能な端末であるものとして説明するが、映像だけを用いたコミュニケーションに対応させ、音声を処理する構成について省略するようにしても良い。   The control unit 108 controls the operation of the communication device 10 as a whole. For example, the control unit 108 exchanges control information with each component in the communication device 10 or calls other communication devices 10. It is responsible for functions such as connection. In addition, the control unit 108 also performs processing of sending a voice signal (voice data) of a voice uttered by the user of the own apparatus captured from the microphone (not shown) to the remote apparatus. Further, the control unit 108 also performs processing for outputting the voice of the voice signal (voice data) uttered by the remote user supplied from the remote apparatus to a speaker (not shown). In this embodiment, the communication device 10 is described as a terminal capable of communicating (calling) with a remote user using audio and video. However, the communication device 10 is adapted to communication using only video and audio is transmitted. The configuration to be processed may be omitted.

映像取得部101は、自装置利用者を撮像した映像データを、カメラ12から取得する機能を担っている。また、映像取得部101は、自装置利用者の動きに追従するように、カメラ12の撮影する方向や撮影倍率を制御しているものとする。ここでは、例として、映像取得部101は、自装置利用者の頭部が撮影映像の中心となるようにカメラ12の方向等を制御するものとする。映像取得部101が、自装置利用者を撮像し続けるように、カメラ12の方向等を制御する方式については限定されないものであるが、既存のビデオ会議端末等と同様の方法を適用することができる。そして、映像取得部101は、カメラ12により撮影された映像データ(動画像データ)を、遠隔側装置にリアルタイムで送信する。映像取得部101が、映像データを遠隔側装置にリアルタイムで送信する方式については限定されないものであり、既存のビデオ会議端末等で用いられる種々の方式を適用することができる。   The video acquisition unit 101 has a function of acquiring video data obtained by capturing the user of the device from the camera 12. In addition, it is assumed that the video acquisition unit 101 controls the shooting direction and shooting magnification of the camera 12 so as to follow the movement of the user of the apparatus. Here, as an example, it is assumed that the video acquisition unit 101 controls the direction of the camera 12 and the like so that the head of the user of the apparatus itself becomes the center of the captured video. A method for controlling the direction of the camera 12 and the like so that the video acquisition unit 101 continues to capture the user of the device itself is not limited, but a method similar to that for an existing video conference terminal or the like may be applied. it can. Then, the video acquisition unit 101 transmits video data (moving image data) taken by the camera 12 to the remote device in real time. The method in which the video acquisition unit 101 transmits the video data to the remote device in real time is not limited, and various methods used in existing video conference terminals and the like can be applied.

映像処理部102は、映像取得部101が取得した映像データの映像(自装置利用者の映像)を処理する機能を担っている。具体的には、映像処理部102は、処理対象となる映像について、背景映像と人物映像(自装置利用者の映像)に分離するとともに、自装置利用者の利用者情報(詳細については後述する)を算出する。   The video processing unit 102 has a function of processing the video of the video data acquired by the video acquisition unit 101 (the video of the own device user). Specifically, the video processing unit 102 separates a video to be processed into a background video and a person video (video of the own device user) and user information of the own device user (details will be described later). ) Is calculated.

ここで、利用者情報とは、例えば、コミュニケーション装置10を利用している利用者の非言語情報であり、利用者の身体的な位置情報(以下、「身体的位置情報」ともいう)を含む情報であるものとする。利用者情報に含まれる利用者の身体的位置情報としては、例えば、ディスプレイ本体131を回転する回転軸から見た、利用者の頭部の位置姿勢や視線の方向、肩の向き等が挙げられる。ここでは、例として、ディスプレイ本体131の回転軸から見た利用者の頭部の一部(例えば、利用者の眼球の間の中心位置)の方向(以下、「利用者頭部方向θ」という)に関する情報が、利用者情報に含まれるものとする。映像処理部102が、自装置利用者の映像を用いて、自装置利用者の利用者頭部方向を把握する方法は限定されないものであるが、例えば、参考文献1(特開2008−102902号公報)の記載技術を用いることができる。参考文献1では、ユーザを撮影した映像から、当該ユーザの頭部の位置姿勢や視線の方向、肩の向き等を把握することについて記載されている。なお、以下では、コミュニケーション装置10−1を利用する第1の利用者U1の利用者頭部方向を「利用者頭部方向θH1」、コミュニケーション装置10−2を利用する第2の利用者U2の利用者頭部方向を「利用者頭部方向θH2」と表すものとする。 Here, the user information is, for example, non-linguistic information of a user who uses the communication device 10 and includes physical position information of the user (hereinafter also referred to as “physical position information”). It is assumed to be information. The user's physical position information included in the user information includes, for example, the position and orientation of the user's head, the direction of the line of sight, and the direction of the shoulder as seen from the rotation axis that rotates the display main body 131. . Here, as an example, a part of the user's head (for example, the center position between the user's eyes) viewed from the rotation axis of the display main body 131 (hereinafter, “user head direction θ H ”). Information) is included in the user information. The method for the video processing unit 102 to grasp the user's head direction of the user's device user using the user's device user's video is not limited, but for example, Reference 1 (Japanese Patent Laid-Open No. 2008-102902). The technology described in Japanese Laid-Open Patent Publication No. 2001-228707 can be used. Reference 1 describes that the position and orientation of the user's head, the direction of the line of sight, the direction of the shoulder, and the like are grasped from the video of the user. In the following, the user head direction of the first user U1 who uses the communication device 10-1 is “user head direction θ H1 ”, and the second user U2 who uses the communication device 10-2. The user head direction is expressed as “user head direction θ H2 ”.

図4は、コミュニケーション装置10を構成する映像処理部102が把握する利用者情報の例について示した説明図である。   FIG. 4 is an explanatory diagram showing an example of user information grasped by the video processing unit 102 constituting the communication device 10.

ここでは、例として、ディスプレイ本体131が初期の状態で向いている画面に対する垂直平面Sを0度の方向と呼び、ディスプレイ本体131の回転軸Pを中心として、時計回りにずれた方向を正の角度、反時計回りにずれた方向を負の角度として方向を表すものとする。すなわち、ディスプレイ本体131の画面は、初期状態では0度の方向を向いているものとする。その後、ディスプレイ本体131の画面の方向が、ディスプレイ回転板132の動作に従って変化する。以下では、現在のディスプレイ本体131の画面の方向を、「画面方向θ」と表わすものとする。また、以下では、コミュニケーション装置10−1の画面方向を「画面方向θS1」、コミュニケーション装置10−2の画面方向を「画面方向θS2」と表わすものとする。 Here, as an example, a vertical plane S with respect to the screen display main body 131 is facing in the initial state is referred to as the direction of 0 °, about the rotation axis P A of the display body 131, a positive a direction shifted clockwise It is assumed that the direction is expressed with a negative angle that is a direction shifted counterclockwise. That is, it is assumed that the screen of the display main body 131 is oriented at 0 degrees in the initial state. Thereafter, the screen direction of the display main body 131 changes according to the operation of the display rotating plate 132. Hereinafter, the current screen direction of the display main body 131 is represented as “screen direction θ S ”. Hereinafter, the screen direction of the communication device 10-1 is represented as “screen direction θ S1 ”, and the screen direction of the communication device 10-2 is represented as “screen direction θ S2 ”.

そして、ここでは、映像処理部102は、ディスプレイ本体131の回転軸Pから、利用者の頭部の所定部分の位置P(例えば、利用者の眼球の間の中心位置)への方向を利用者頭部方向θとして把握するものとする。 And here, the image processing unit 102, a direction from the rotational axis P A of the display body 131, to the position P E of a predetermined portion of the user's head (e.g., center position between the eyes of the user) It shall be understood as a use's head direction θ H.

そして、映像処理部102は、自装置利用者の利用者情報(利用者頭部方向θ)に基づいて、ディスプレイ本体131を、回転させる量(以下、「回転量θ」と表わす)を決定する。そして、映像処理部102は、決定した回転量θの情報を、回転制御部107に与える。なお、以下では、コミュニケーション装置10−1で決定された回転量を「回転量θT1」、コミュニケーション装置10−2で決定された回転量を「回転量θT2」と表わすものとする。 Then, the video processing unit 102 determines the amount of rotation of the display main body 131 (hereinafter referred to as “rotation amount θ T ”) based on the user information (user head direction θ H ) of the user of the apparatus. decide. Then, the image processing unit 102, the determined information amount of rotation theta T, gives the rotation control unit 107. In the following, the rotation amount determined by the communication device 10-1 is represented as “rotation amount θ T1 ”, and the rotation amount determined by the communication device 10-2 is represented as “rotation amount θ T2 ”.

ここでは、映像処理部102は、原則として、ディスプレイ本体131の画面を自装置利用者に正対させる(すなわち、利用者頭部方向θと画面方向θとを一致させる)ための回転量θを算出するものとする。具体的には、利用者頭部方向θと画面方向θとを一致させるためには、回転量θ=θ−θとする必要がある。例えば、図4の状態の場合、θ=0度であり、θ=45度とした場合、利用者頭部方向θと画面方向θとを一致させるためには、回転量θ=45度−0度=45度とする必要がある。 Here, as a general rule, the video processing unit 102 has a rotation amount for causing the screen of the display main body 131 to face the user of the apparatus itself (that is, to make the user head direction θ H and the screen direction θ S coincide). Assume that θ T is calculated. Specifically, in order to match the user head direction θ H and the screen direction θ S , it is necessary to set the rotation amount θ T = θ H −θ S. For example, in the state of FIG. 4, when θ S = 0 degrees and θ H = 45 degrees, in order to make the user head direction θ H coincide with the screen direction θ S , the rotation amount θ T = 45 degrees-0 degrees = 45 degrees.

映像処理部102は、利用者頭部方向θと画面方向θとを一致させるための回転量θをそのまま、回転制御部107に与えても良いし、画面方向θを所定の範囲内(例えば、−45度〜45度)に保つように変換してから回転制御部107に与えても良い。例えば、画面方向θが40度の状態で、利用者頭部方向θと画面方向θとを一致させるための回転量θが10度だった場合には、映像処理部102は、画面方向θを−45度〜45度の範囲に保つために、回転制御部107に与える回転量θを5度と決定するようにしても良い。 The video processing unit 102, the user head direction theta H and screen direction theta S and as the amount of rotation theta T for matching, may be applied to the rotation controller 107, range screen direction theta S of predetermined Alternatively, the rotation control unit 107 may be provided after conversion to keep within (for example, −45 degrees to 45 degrees). For example, when the screen direction θ S is 40 degrees and the rotation amount θ T for matching the user head direction θ H and the screen direction θ S is 10 degrees, the video processing unit 102 In order to keep the screen direction θ S in the range of −45 degrees to 45 degrees, the rotation amount θ T given to the rotation control unit 107 may be determined to be 5 degrees.

回転制御部107は、ディスプレイ本体131や、カメラ本体121の回転を制御するものである。回転制御部107は、映像処理部102から与えられる回転量θに応じて、図示しないディスプレイ回転板132のモータを制御して回転させる。すなわち、回転制御部107は、ディスプレイ本体131の画面方向θ=θ+θとなるように、図示しないディスプレイ回転板132が備える回転機構を制御する。 The rotation control unit 107 controls the rotation of the display main body 131 and the camera main body 121. Rotation control section 107, in accordance with the rotation amount theta T supplied from the video processing unit 102, is rotated by controlling the motor of a display rotation plate 132 (not shown). That is, the rotation control unit 107 controls the rotation mechanism provided in the display rotation plate 132 (not shown) so that the screen direction θ S = θ S + θ T of the display main body 131 is obtained.

情報送信部103は、映像取得部101が取得した自装置利用者の利用者情報(利用者頭部方向θ)について、ネットワークNを介して遠隔側装置に送信するものである。 The information transmission unit 103 transmits the user information (user head direction θ H ) of the own device user acquired by the video acquisition unit 101 to the remote device via the network N.

情報受信部104は、ネットワークNを介して、遠隔側装置から、遠隔側利用者の利用者情報(利用者頭部方向θ)を取得するものである。 The information receiving unit 104 acquires user information (user head direction θ H ) of the remote user from the remote device via the network N.

映像合成部105は、遠隔側装置から供給された映像データの処理(例えば、合成処理等)を行い、映像表示部106に供給するものである。   The video composition unit 105 performs processing (for example, composition processing) on the video data supplied from the remote device and supplies the processed data to the video display unit 106.

ここでは、映像合成部105は、遠隔側利用者の人物映像(以下、「遠隔側人物映像」と表わす)を変形することなく、遠隔側の人物の背景映像(以下、「遠隔側背景映像」と表わす)についてだけ、自装置における画面方向θと逆方向に歪ませて合成する(例えば、射影変換して合成する)ものとする。 Here, the video composition unit 105 does not transform the person video of the remote user (hereinafter referred to as “remote person video”), and does not modify the background video of the remote person (hereinafter “remote background video”). It is assumed that only the screen direction θ S of the device itself is distorted and synthesized (for example, by projective transformation).

遠隔側装置から受信した映像データから、遠隔側背景映像と遠隔側人物映像とに分割する処理は限定されないものであり、既存の処理方法を適用することができる。遠隔側から受信した映像データから、遠隔側人物映像を抽出する処理については、例えば、参考文献3(特開2001−14474号公報)の記載技術を適用することができる。参考文献3では、予め撮影されて記憶された背景画像、及び背景と人物が撮像されている混合画像の2枚の画像を背景差分法を用いて比較し、人物の画像を抽出している。映像合成部105で、参考文献3の記載技術を利用する場合には、予め遠隔側背景映像を保持しておき、保持した遠隔側背景映像と、遠隔側装置から受信した映像データ(背景と人物が撮影されている混合映像)とを比較して、遠隔側人物映像を取得することができる。参考文献3の記載技術を利用する場合には、遠隔側装置から受信した映像データから遠隔側背景映像を抽出せずに、予め保持しているものを利用するようにしても良い。映像合成部105が、遠隔側背景映像を予め保持する方法については限定されないものである。例えば、予め利用者により登録されるようにしても良いし、遠隔側利用者又は自装置利用者の操作に応じて、遠隔側利用者が撮像されない状態(すなわち遠隔側背景映像)の映像をキャプチャして保持するようにしても良い。   The process of dividing the video data received from the remote device into the remote background video and the remote person video is not limited, and an existing processing method can be applied. For example, the technique described in Reference 3 (Japanese Patent Laid-Open No. 2001-14474) can be applied to the process of extracting the remote person video from the video data received from the remote side. In Reference 3, a background image captured and stored in advance and a mixed image in which a background and a person are captured are compared using a background subtraction method to extract a person image. When the video composition unit 105 uses the technique described in Reference 3, the remote background video is stored in advance, and the stored remote background video and the video data (background and person received from the remote device) are stored. And a remote person image can be acquired. When the technique described in Reference 3 is used, what is stored in advance may be used without extracting the remote background video from the video data received from the remote device. The method in which the video composition unit 105 holds the remote-side background video in advance is not limited. For example, it may be registered in advance by the user, or a video in a state where the remote user is not imaged (that is, the remote background video) is captured in response to the operation of the remote user or the user of the device. And may be held.

映像合成部105は、遠隔側背景映像については、上述の通り、自装置における画面方向θと逆方向に歪ませて合成する。遠隔側背景映像を画面方向θに応じて歪ませる(例えば、射影変換)方法については限定されず、既存の処理方法用いることができるが、例えば、参考文献4(特開2009−260819)の記載技術を用いるようにしてもよい。参考文献4では、矩形の映像を射影変換パラメータに応じて射影変換することについて記載されている。映像合成部105で、参考文献4の記載技術を利用して、遠隔側背景映像を射影変換する場合には、画面方向θに応じた射影変換パラメータを決定して射影変換するようにしても良い。なお、参考文献4では、台形の画像を矩形に変換する処理について記載されているが、この実施形態では、矩形を台形に変換する処理として行う必要がある。そして、映像合成部105は、射影変換した遠隔側背景映像に遠隔側人物映像を合成し、映像表示部106に供給する。 As described above, the video composition unit 105 synthesizes the remote background video by distorting it in the direction opposite to the screen direction θ S of the device itself. The method for distorting the background image on the remote side according to the screen direction θ S (for example, projective transformation) is not limited, and an existing processing method can be used. For example, Reference 4 (Japanese Patent Laid-Open No. 2009-260819) The described technique may be used. Reference 4 describes a projective transformation of a rectangular image according to a projective transformation parameter. When the video composition unit 105 performs the projective transformation of the remote background video using the technique described in Reference 4, the projection transformation parameter corresponding to the screen direction θ S is determined to perform the projective transformation. good. Note that Reference 4 describes a process of converting a trapezoidal image into a rectangle, but in this embodiment, it is necessary to perform the process as a process of converting a rectangle into a trapezoid. Then, the video composition unit 105 synthesizes the remote-side person video with the projective-converted remote-side background video and supplies it to the video display unit 106.

次に、映像合成部105が行う合成処理等の具体例について説明する。   Next, a specific example of composition processing performed by the video composition unit 105 will be described.

図5は、コミュニケーション装置10−1における映像合成部105及び回転制御部107の行う処理について示した説明図である。   FIG. 5 is an explanatory diagram showing processing performed by the video composition unit 105 and the rotation control unit 107 in the communication device 10-1.

図5(a−1)は、画面方向θS1が0度の場合(図5(a−2)の状態の場合)に映像合成部105が合成した映像について示している。図5(b−1)は、画面方向θS1が正の角度(例えば、45度)の場合(図5(b−2)の状態の場合)に映像合成部105が合成した映像について示している。図5(c−1)は、画面方向θS1が負の角度(例えば、−45度)の場合(図5(c−2)の状態の場合)に映像合成部105が合成した映像について示している。 FIG. 5A-1 shows an image synthesized by the video composition unit 105 when the screen direction θ S1 is 0 degree (in the state of FIG. 5A-2). FIG. 5B-1 shows an image synthesized by the video composition unit 105 when the screen direction θ S1 is a positive angle (for example, 45 degrees) (in the state of FIG. 5B-2). Yes. FIG. 5C-1 shows an image synthesized by the video composition unit 105 when the screen direction θ S1 is a negative angle (for example, −45 degrees) (in the state of FIG. 5C-2). ing.

図5(a−1)、図5(b−1)、図5(c−1)において、A111、A121、A131の領域は、遠隔側人物映像を示している。また、A112、A122、A132の領域は、遠隔側背景映像を示している。   5A-1, 5B-1, and 5C-1, areas A111, A121, and A131 indicate remote person images. In addition, areas A112, A122, and A132 indicate remote side background images.

図5(a−1)に示すように、画面方向θS1が0度の場合には、映像合成部105は、遠隔側背景映像について射影変換せずにそのまま遠隔側人物映像と合成した映像を生成する。 As shown in FIG. 5 (a-1), when the screen direction θ S1 is 0 degree, the video composition unit 105 synthesizes the remote background video as it is without performing projective conversion on the remote background video. Generate.

また、図5(b−1)に示すように、画面方向θS1が正の角度(例えば、45度)の場合には、映像合成部105は、画面が回転した方向(画面に向かって左側)の端を台形の底辺とし、反対の方向(画面に向かって右側)の端を台形の上辺とするように、遠隔側背景映像を射影変換により歪ませている。さらに、図5(c−1)に示すように、画面方向θS1が負の角度(例えば、−45度)の場合には、映像合成部105は、画面が回転した方向(画面に向かって右側)の端を台形の底辺とし、反対の方向(画面に向かって左側)の端を台形の上辺とするように射影変換により歪ませている。さらにまた、映像合成部105は、画面方向θの絶対値が大きくなるほど、遠隔側背景映像の歪みを大きく(台形の底辺と上辺の差異を大きく)するように、遠隔側背景映像を射影変換する。 As shown in FIG. 5B-1, when the screen direction θ S1 is a positive angle (for example, 45 degrees), the video composition unit 105 moves the screen in the direction rotated to the left (toward the screen). The background image of the remote side is distorted by projective transformation so that the end of) is the base of the trapezoid and the end of the opposite direction (right side toward the screen) is the top of the trapezoid. Further, as shown in FIG. 5C-1, when the screen direction θ S1 is a negative angle (for example, −45 degrees), the video composition unit 105 rotates the screen (towards the screen). It is distorted by projective transformation so that the edge on the right side is the base of the trapezoid and the edge in the opposite direction (left side toward the screen) is the top of the trapezoid. Furthermore, the video composition unit 105 performs projective transformation on the remote-side background video so that the distortion of the remote-side background video increases (the difference between the bottom and top sides of the trapezoid increases) as the absolute value of the screen direction θ S increases. To do.

また、映像合成部105は、遠隔側背景映像の射影変換により、ディスプレイ本体131の画面上で、映像が表示されない領域(例えば、図5(a−1)の領域A121、A123等の遠隔側背景映像が欠ける領域)については、例えば、所定の単色の画素や、所定のパターンで塗りつぶして補完するようにしても良いし、遠隔側背景映像に最も色彩(色相)が近い色の画素で塗りつぶして補完するようにしても良い。   Further, the video composition unit 105 performs remote side background video projective transformation on the screen of the display main body 131 such that areas on which no video is displayed (for example, remote backgrounds such as the areas A121 and A123 in FIG. 5A-1). For example, a region where the image is missing may be complemented by filling with a predetermined single color pixel, a predetermined pattern, or a pixel having a color (hue) closest to the remote background image. You may make it complement.

(A−2)第1の実施形態の動作
次に、以上のような構成を有する第1の実施形態のコミュニケーションシステム1の動作を説明する。
(A-2) Operation of the First Embodiment Next, the operation of the communication system 1 of the first embodiment having the above configuration will be described.

以下では、第1の利用者U1が利用するコミュニケーション装置10−1の動作を中心として説明する。   Below, it demonstrates centering around operation | movement of the communication apparatus 10-1 which the 1st user U1 uses.

図6は、コミュニケーションシステム1を構成するコミュニケーション装置10の動作について示したフローチャートである。   FIG. 6 is a flowchart showing the operation of the communication device 10 constituting the communication system 1.

まず、コミュニケーション装置10−1とコミュニケーション装置10−2との間でビデオ通話が開始されたものとする(S100)。   First, it is assumed that a video call is started between the communication device 10-1 and the communication device 10-2 (S100).

次に、コミュニケーション装置10−1の映像処理部102にて、映像取得部101より取得された第1の利用者U1の映像を用いて、第1の利用者U1の利用者情報として利用者頭部方向θH1が算出される(S101)。 Next, using the video of the first user U1 acquired from the video acquisition unit 101 in the video processing unit 102 of the communication device 10-1, the user head as user information of the first user U1. The part direction θ H1 is calculated (S101).

次に、映像処理部102にて、上述のステップS101で算出された利用者頭部方向θH1基づいて、画面方向θS1及び回転量θT1が決定される。そして、映像処理部102から回転制御部107へ決定された回転量θT1の情報が与えられる。そして、回転制御部107は、与えられた回転量θT1にしたがって、ディスプレイ本体131(ディスプレイ回転板132)を回転動作させる(S102)。 Next, the video processing unit 102 determines the screen direction θ S1 and the rotation amount θ T1 based on the user head direction θ H1 calculated in step S101 described above. Then, the information on the determined rotation amount θ T1 is given from the video processing unit 102 to the rotation control unit 107. Then, the rotation control unit 107, in accordance with a given amount of rotation theta T1, rotating operating a display body 131 (display rotating plate 132) (S102).

そして、映像合成部105にて、コミュニケーション装置10−2からの映像データが取得され(S103)、その映像データの映像についての合成処理等がおこなわれ、映像表示部106に与えられる(S104)。   Then, the video composition unit 105 acquires the video data from the communication device 10-2 (S103), performs a synthesis process on the video of the video data, and gives the video data to the video display unit 106 (S104).

ステップS104では、映像合成部105にて、コミュニケーション装置10−2からの映像データの映像について、遠隔側人物映像が抽出され、さらに、予め保持していた遠隔側背景映像について最新の画面方向θS1に応じた射影変換が行われる。そして、映像合成部105にて、抽出された遠隔側人物映像と、射影変換後の遠隔側背景映像が合成されて、合成後の映像データが、映像表示部106に与えられる。 In step S104, the remote person video is extracted from the video data of the video data from the communication device 10-2 by the video compositing unit 105, and the latest screen direction θ S1 is stored for the remote background video that has been held in advance. Projective transformation is performed in accordance with. Then, the video composition unit 105 synthesizes the extracted remote person video and the remote background image after projective transformation, and provides the composited video data to the video display unit 106.

そして、映像表示部106により、映像合成部105から与えられた映像データの映像が、ディスプレイ本体131に表示される(S105)。なお、ステップS103〜S105の処理は、次に、利用者情報が更新されるまで繰り返し行われる。   Then, the video display unit 106 displays the video data provided from the video synthesis unit 105 on the display main body 131 (S105). The processes in steps S103 to S105 are then repeated until the user information is updated.

そして、コミュニケーション装置10−1の制御部108にて、コミュニケーション装置10−2とのコミュニケーションが継続しているか否か、すなわち、コミュニケーション装置10−1、10−2の間の回線がつながっているか否かが確認される(S106)。ステップS106にて、コミュニケーション装置10−2とのコミュニケーションが継続していると判定された場合(回線が接続中の場合)には、制御部108は、上述のステップS101の処理に戻って、動作するように、各構成要素を制御する。一方、ステップS106にて、コミュニケーション装置10−2とのコミュニケーションが継続していると判定された場合(回線が切断された場合)には、制御部108は、上述の一連の処理を終了する(S107)。   And in the control part 108 of the communication apparatus 10-1, whether the communication with the communication apparatus 10-2 is continuing, ie, the line between the communication apparatuses 10-1, 10-2 is connected. Is confirmed (S106). If it is determined in step S106 that communication with the communication device 10-2 is continuing (when the line is connected), the control unit 108 returns to the process in step S101 described above and operates. Each component is controlled as follows. On the other hand, when it is determined in step S106 that the communication with the communication device 10-2 is continuing (when the line is disconnected), the control unit 108 ends the above-described series of processing ( S107).

(A−3)第1の実施形態の効果
第1の実施形態によれば、以下のような効果を奏することができる。
(A-3) Effects of First Embodiment According to the first embodiment, the following effects can be achieved.

第1の実施形態のコミュニケーション装置10では、自装置利用者の利用者情報(利用者頭部方向θ)に、自装置のディスプレイ本体131の画面方向を追従させている。具体的には、コミュニケーション装置10では、自装置利用者に、ディスプレイ本体131の画面を正対させるように、ディスプレイ本体131の画面方向を制御している。また、第1の実施形態のコミュニケーション装置10では、自装置のディスプレイ本体131の画面方向θに応じて、ディスプレイ本体131の画面に表示する遠隔側背景映像を、ディスプレイ本体131の画面の回転方向と逆方向に歪ませる処理(射影変換処理)を行っている。これにより、コミュニケーション装置10では、自装置利用者へ、遠隔側の映像を、擬似的に立体映像として見せることができ、相手(遠隔側利用者)の存在感を提示し、臨場感を高めることができる。 In the communication device 10 of the first embodiment, the screen direction of the display main body 131 of the own device is made to follow the user information (user head direction θ H ) of the own device user. Specifically, the communication device 10 controls the screen direction of the display main body 131 so that the user of the device itself faces the screen of the display main body 131. Further, in the communication device 10 according to the first embodiment, the remote background image to be displayed on the screen of the display main body 131 according to the screen direction θ S of the display main body 131 of the own device is displayed. (Projection transformation process) to distort in the opposite direction. Thereby, in the communication apparatus 10, a remote image | video can be shown to a self-device user as a pseudo-stereoscopic image, the presence of the other party (remote user) is shown, and a realistic feeling is heightened. Can do.

また、第1の実施形態のコミュニケーション装置10は、ハードウェア的には、従来のビデオ会議端末等に、ディスプレイの画面方向を制御できる機構を設けるだけで構築することができるため、低コストで実現することが可能である。   In addition, the communication device 10 of the first embodiment can be constructed at a low cost because it can be built simply by providing a mechanism that can control the screen direction of the display in a conventional video conference terminal or the like. Is possible.

(B)第2の実施形態
以下、本発明によるコミュニケーションシステム及びコミュニケーション装置の第2の実施形態を、図面を参照しながら詳述する。
(B) Second Embodiment Hereinafter, a second embodiment of a communication system and a communication device according to the present invention will be described in detail with reference to the drawings.

(B−1)第2の実施形態の構成
第2の実施形態のコミュニケーションシステム1Aの構成も、上述の図2により示すことができる。以下、第2の実施形態について、第1の実施形態との差異を中心として説明する。
(B-1) Configuration of Second Embodiment The configuration of the communication system 1A of the second embodiment can also be shown in FIG. 2 described above. Hereinafter, the second embodiment will be described focusing on the differences from the first embodiment.

第2の実施形態のコミュニケーションシステム1Aでは、コミュニケーション装置10(10−1、10−2)が、コミュニケーション装置10A(10A−1、10A−2)に置き換わっている点で、第1の実施形態と異なっている。   In the communication system 1A according to the second embodiment, the communication device 10 (10-1, 10-2) is replaced with the communication device 10A (10A-1, 10A-2). Is different.

第2の実施形態のコミュニケーション装置10Aも、上述の図1、図3により示すことができる。   The communication device 10A of the second embodiment can also be shown by the above-described FIGS.

第2の実施形態のコミュニケーション装置10Aを構成するコミュニケーション装置本体11Aは、機能的には、映像取得部101、映像処理部102A、情報送信部103、情報受信部104、映像合成部105、映像表示部106、回転制御部107A、及び制御部108を有している。第2の実施形態のコミュニケーション装置本体11Aでは、機能的には、映像処理部102A及び回転制御部107A以外の構成については、第1の実施形態と同様であるため、詳しい説明を省略する。   The communication device main body 11A constituting the communication device 10A of the second embodiment functionally includes a video acquisition unit 101, a video processing unit 102A, an information transmission unit 103, an information reception unit 104, a video synthesis unit 105, and a video display. Unit 106, rotation control unit 107A, and control unit 108. Functionally, in the communication apparatus main body 11A of the second embodiment, since the configuration other than the video processing unit 102A and the rotation control unit 107A is the same as that of the first embodiment, detailed description thereof is omitted.

映像処理部102Aは、利用者情報として、利用者頭部方向θではなく、自装置の利用者の視線の方向(以下、「利用者視線方向θ」と表わす)を把握する点で、第1の実施形態と異なっている。 The video processing unit 102A grasps not the user head direction θ H as the user information, but the direction of the user's line of sight (hereinafter referred to as “user line-of-sight direction θ E ”). This is different from the first embodiment.

図7は、映像処理部102Aが、利用者情報として把握する利用者視線方向θについて示した説明図である。 7, the image processing unit 102A is an explanatory diagram showing a user line-of-sight direction theta E grasped as user information.

図7に示すように、利用者視線方向θは、利用者Uの頭部の所定部分の位置P(例えば、利用者の眼球の間の中心位置)から利用者Uの視線の方向に伸びる線Lが示す方向である。そして、ディスプレイ本体131が初期の状態(画面方向θが0度)で向いている画面に対する垂直平面Sと、線Lとが並行となる場合に利用者視線方向θは0度の方向と表すものとする。そして、それ以外の場合(垂直平面Sと、線Lとが並行でない場合)には、Lと垂直平面Sとがなす角度により、利用者視線方向θは、表されるものとする。なお、上述の通り、利用者頭部方向θや画面方向θについては、ディスプレイ本体131の回転軸から見た方向として表していたが、利用者視線方向θについては、利用者Uから見た方向として表すものとする。そして、利用者視線方向θは、利用者Uから見て、0度の方向から反時計回りにずれた方向を正の角度、時計回りにずれた方向を負の角度として方向を表すものとする。図7の例の場合には、利用者Uの視線は、0度の方向から反時計回りの方向にずれているので、正の角度として表されることになる。 As shown in FIG. 7, the user's line-of-sight direction θ E is changed from the position P E (for example, the center position between the user's eyes) of the user U's head to the direction of the line of sight of the user U. extending the line L E is the direction indicated. Then, the direction of 0 degrees the user viewing direction theta E when the vertical plane S with respect to the screen display main body 131 is facing in the initial state (the screen direction theta S is 0 degrees), and a line L E becomes parallel It shall be expressed as And, in other cases (if a vertical plane S, and a line L E not parallel), the angle between L E and the vertical plane S, the user viewing direction theta E shall be represented . As described above, the user head direction θ H and the screen direction θ S are expressed as directions viewed from the rotation axis of the display main body 131, but the user line-of-sight direction θ E is from the user U. It shall be expressed as the viewing direction. The user's line-of-sight direction θ E represents a direction as viewed from the user U, with the direction deviating counterclockwise from the 0 degree direction as a positive angle and the direction deviating clockwise as a negative angle. To do. In the case of the example in FIG. 7, the user U's line of sight is deviated from the 0 degree direction in the counterclockwise direction, and thus is represented as a positive angle.

そして、以下では、コミュニケーション装置10A−1を利用する第1の利用者U1の利用者視線方向を「利用者視線方向θE1」と表わし、コミュニケーション装置10A−2を利用する第2の利用者U2の利用者視線方向を「利用者視線方向θE2」と表すものとする。 In the following, the user gaze direction of the first user U1 who uses the communication device 10A-1 is represented as “user gaze direction θ E1 ”, and the second user U2 who uses the communication device 10A-2. The user gaze direction is expressed as “user gaze direction θ E2 ”.

第1の実施形態の回転制御部107は、自装置利用者の利用者頭部方向θに基づいて、自装置のディスプレイ本体131を向ける方向(画面方向θ)を決定していた。これに対して、第2の実施形態の回転制御部107Aでは、遠隔側利用者の利用者視線方向θに基づいて、自装置の画面方向θを決定するものとする。 The rotation control unit 107 of the first embodiment determines the direction (screen direction θ S ) in which the display main body 131 of the own device is directed based on the user head direction θ H of the own device user. On the other hand, the rotation control unit 107A of the second embodiment determines the screen direction θ S of the own device based on the user gaze direction θ E of the remote user.

例えば、コミュニケーション装置10A−1では、コミュニケーション装置10A−2から、第2の利用者U2の利用者情報(利用者視線方向θE2)が供給されると、回転制御部107Aにより、利用者視線方向θE2に基づいた回転量θT1が算出される。具体的には、コミュニケーション装置10A−1の回転制御部107Aは、自装置のディスプレイ本体131の画面方向θS1に対して、正負を逆転させた利用者視線方向θE2に一致させるための回転量を、回転量θT1として算出する。すなわち、この場合、回転量θT1=−θE2−θS1とする必要がある。そして、回転制御部107Aは、算出した回転量θT1にしたがって、自装置のディスプレイ本体131を回転させる。 For example, in the communication device 10A-1, when the user information (user viewing direction θ E2 ) of the second user U2 is supplied from the communication device 10A-2, the rotation control unit 107A causes the user viewing direction. A rotation amount θ T1 based on θ E2 is calculated. Specifically, the rotation control unit 107A of the communication device 10A-1 has a rotation amount for causing the screen direction θ S1 of the display main body 131 of the own device to coincide with the user line-of-sight direction θ E2 in which the sign is reversed. Is calculated as the rotation amount θ T1 . That is, in this case, it is necessary to set the rotation amount θ T1 = −θ E2 −θ S1 . Then, the rotation control unit 107A, in accordance with the calculated amount of rotation theta T1, rotates the display body 131 of the apparatus.

第2の実施形態において、映像合成部105は、第1の実施形態と同様に、遠隔側人物映像を変形することなく、遠隔側背景映像についてだけ、自装置における画面方向θと逆方向に歪ませて合成する(例えば、射影変換して合成する)ものとする。 In the second embodiment, as in the first embodiment, the video composition unit 105 does not transform the remote person video, but only the remote background video in the direction opposite to the screen direction θ S in its own device. It is assumed that the image is synthesized by distortion (for example, it is synthesized by projective transformation).

図8は、コミュニケーション装置10A−1において、映像合成部105及び回転制御部107Aが行う処理について示した説明図である。   FIG. 8 is an explanatory diagram showing processing performed by the video composition unit 105 and the rotation control unit 107A in the communication device 10A-1.

図8(a−2)は、コミュニケーション装置10−2において把握された第2の利用者U2の利用者視線方向θE2が0度の場合(図8(a−1)の状態の場合)に映像合成部105が合成した映像について示している。図8(b−2)は、利用者視線方向θE2が負の角度(例えば、−45度)の場合(図8(b−1)の状態の場合)に映像合成部105が合成した映像について示している。図8(c−2)は、利用者視線方向θE2が正の角度(例えば、45度)の場合(図8(c−1)の状態の場合)に映像合成部105が合成した映像について示している。図8(a−2)、図8(b−2)、図8(c−2)において、A211、A221、A231の領域は、遠隔側人物映像を示している。また、A212、A222、A232の領域は、遠隔側背景映像を示している。 FIG. 8A-2 shows the case where the user gaze direction θ E2 of the second user U2 grasped by the communication device 10-2 is 0 degree (in the case of the state of FIG. 8A-1). An image synthesized by the image synthesis unit 105 is shown. FIG. 8B-2 shows an image synthesized by the image synthesizing unit 105 when the user's line-of-sight direction θ E2 is a negative angle (for example, −45 degrees) (in the state of FIG. 8B-1). Shows about. FIG. 8C-2 shows an image synthesized by the video composition unit 105 when the user's line-of-sight direction θ E2 is a positive angle (for example, 45 degrees) (in the state of FIG. 8C-1). Show. In FIG. 8A-2, FIG. 8B-2, and FIG. 8C-2, areas A211, A221, and A231 indicate remote person images. In addition, areas A212, A222, and A232 indicate remote side background images.

図8(a−3)は、利用者視線方向θE2が0度の場合(図8(a−1)の状態の場合)に、回転制御部107Aがディスプレイ本体131の画面を向ける方向について示している。図8(b−3)は、利用者視線方向θE2が負の角度(例えば、−45度)の場合(図8(b−1)の状態の場合)に、回転制御部107Aがディスプレイ本体131の画面を向ける方向について示している。図8(c−3)は、利用者視線方向θE2が正の角度(例えば、+45度)の場合(図8(c−1)の状態の場合)に、回転制御部107Aがディスプレイ本体131の画面を向ける方向について示している。 FIG. 8A-3 shows the direction in which the rotation control unit 107A directs the screen of the display main body 131 when the user's line-of-sight direction θ E2 is 0 degree (in the state of FIG. 8A-1). ing. FIG. 8B-3 shows the case where the rotation control unit 107A is displayed on the display body when the user's line-of-sight direction θ E2 is a negative angle (for example, in the state of FIG. 8B-1). The direction in which the screen 131 is directed is shown. FIG. 8C-3 shows the case where the rotation control unit 107A displays the display main body 131 when the user's line-of-sight direction θ E2 is a positive angle (for example, in the state of FIG. 8C-1). The direction in which the screen is directed is shown.

図8(a−3)に示すように、利用者視線方向θE2が0度の場合には、回転制御部107Aは、ディスプレイ本体131の画面を0度の方向に向けるように回転量θT1を決定して制御する。また、図8(b−3)に示すように、利用者視線方向θE2が−45度の場合には、回転制御部107Aは、ディスプレイ本体131の画面を、画面方向θS1=−θS2=+45度となるように、回転量θT1を決定して制御する。さらに、図8(c−3)に示すように、利用者視線方向θE2が+45度の場合には、回転制御部107Aは、ディスプレイ本体131の画面を、画面方向θS1=−θS2=−45度となるように、回転量θT1を決定して制御する。 As shown in FIG. 8A-3, when the user's line-of-sight direction θ E2 is 0 degree, the rotation control unit 107A rotates the rotation amount θ T1 so that the screen of the display main body 131 is directed to the 0 degree direction. Determine and control. Also, as shown in FIG. 8B-3, when the user's line-of-sight direction θ E2 is −45 degrees, the rotation control unit 107A displays the screen of the display main body 131 with the screen direction θ S1 = −θ S2. The rotation amount θ T1 is determined and controlled so as to be +45 degrees. Further, as shown in FIG. 8C-3, when the user's line-of-sight direction θ E2 is +45 degrees, the rotation control unit 107A displays the screen of the display main body 131 with the screen direction θ S1 = −θ S2 = The rotation amount θ T1 is determined and controlled so as to be −45 degrees.

(B−2)第2の実施形態の動作
次に、以上のような構成を有する第2の実施形態のコミュニケーションシステム1Aの動作を説明する。
(B-2) Operation of Second Embodiment Next, the operation of the communication system 1A of the second embodiment having the above configuration will be described.

以下では、第1の利用者U1が利用するコミュニケーション装置10A−1の動作を中心として説明する。   Hereinafter, the operation of the communication device 10A-1 used by the first user U1 will be mainly described.

図9は、コミュニケーションシステム1Aを構成するコミュニケーション装置10Aの動作について示したフローチャートである。   FIG. 9 is a flowchart showing the operation of the communication device 10A constituting the communication system 1A.

まず、コミュニケーション装置10A−1とコミュニケーション装置10A−2との間でビデオ通話が開始されたものとする(S200)。   First, it is assumed that a video call is started between the communication device 10A-1 and the communication device 10A-2 (S200).

そして、コミュニケーション装置10A−2の映像処理部102Aにより、映像取得部101より取得された第2の利用者U2の映像を用いて、第2の利用者U2の利用者情報(利用者視線方向θE2)が算出される。そして、コミュニケーション装置10A−2で算出された利用者情報(利用者視線方向θE2)が、コミュニケーション装置10A−1に供給されたものとする(S201)。 Then, by using the video of the second user U2 acquired from the video acquisition unit 101 by the video processing unit 102A of the communication device 10A-2, the user information of the second user U2 (user gaze direction θ E2 ) is calculated. Then, it is assumed that the user information (user gaze direction θ E2 ) calculated by the communication device 10A-2 is supplied to the communication device 10A-1 (S201).

そして、コミュニケーション装置10A−1において、回転制御部107Aにより、上述のステップS201で供給された利用者視線方向θE2に基づいて、画面方向θS1及び回転量θT1が決定される。そして、回転制御部107Aにより、決定された回転量θT1にしたがって、ディスプレイ本体131(ディスプレイ回転板132)が回転動作するように制御される(S202)。 In the communication device 10A-1, the rotation control unit 107A determines the screen direction θ S1 and the rotation amount θ T1 based on the user line-of-sight direction θ E2 supplied in step S201 described above. Then, the rotation control unit 107A, according to the determined amount of rotation theta T1, the display body 131 (display rotating plate 132) is controlled to operate rotation (S202).

そして、映像合成部105にて、コミュニケーション装置10A−2からの映像データが取得され、さらに、その映像データの映像についての合成処理等がおこなわれる(S203)。   Then, the video composition unit 105 acquires the video data from the communication device 10A-2, and further performs a composition process on the video of the video data (S203).

ステップS203では、映像合成部105にて、コミュニケーション装置10A−2からの映像データの映像について、遠隔側人物映像が抽出され、さらに、予め保持していた遠隔側背景映像について最新の画面方向θS1に応じた射影変換が行われる。そして、映像合成部105にて、抽出された遠隔側人物映像と、射影変換後の遠隔側背景映像が合成されて、合成後の映像データが、映像表示部106に与えられる。 In step S203, the video composition unit 105 extracts a remote person video image from the video data from the communication device 10A-2, and further displays the latest screen direction θ S1 for the remote background video image stored in advance. Projective transformation is performed in accordance with. Then, the video composition unit 105 synthesizes the extracted remote person video and the remote background image after projective transformation, and provides the composited video data to the video display unit 106.

そして、映像表示部106により、映像合成部105から与えられた映像データの映像が、ディスプレイ本体131の画面の表示される(S204)。なお、ステップS203、S204の処理は、次に、遠隔側利用者の利用者情報が更新されるまで繰り返し行われる。   Then, the video display unit 106 displays the video of the video data provided from the video synthesis unit 105 on the screen of the display main body 131 (S204). The processes in steps S203 and S204 are then repeated until the user information of the remote user is updated.

そして、コミュニケーション装置10A−1の制御部108にて、コミュニケーション装置10A−2とのコミュニケーションが継続しているか否か、すなわち、コミュニケーション装置10A−1、10A−2の間の回線がつながっているか否かが確認される(S205)。ステップS205にて、コミュニケーション装置10A−2とのコミュニケーションが継続していると判定された場合(回線が接続中の場合)には、制御部108は、上述のステップS201の処理に戻って、動作するように、各構成要素を制御する。一方、ステップS205にて、コミュニケーション装置10A−2とのコミュニケーションが継続していると判定された場合(回線が切断された場合)には、制御部108は、上述の一連の処理を終了する(S206)。   Then, in the control unit 108 of the communication device 10A-1, whether or not communication with the communication device 10A-2 is continued, that is, whether or not the lines between the communication devices 10A-1 and 10A-2 are connected. Is confirmed (S205). When it is determined in step S205 that communication with the communication device 10A-2 is continuing (when the line is connected), the control unit 108 returns to the processing in step S201 described above and operates. Each component is controlled as follows. On the other hand, when it is determined in step S205 that communication with the communication device 10A-2 is continuing (when the line is disconnected), the control unit 108 ends the above-described series of processing ( S206).

(B−3)第2の実施形態の効果
第2の実施形態によれば、以下のような効果を奏することができる。
(B-3) Effects of Second Embodiment According to the second embodiment, the following effects can be achieved.

第2の実施形態のコミュニケーション装置10Aでは、遠隔側利用者の利用者情報(利用者視線方向θ)に、自装置のディスプレイ本体131の画面方向を追従させている。具体的には、例えば、コミュニケーション装置10Aでは、遠隔側利用者が頭部の向きを右方向へ回転させた場合に、それに対応して自装置のディスプレイ本体131の画面方向を、右方向へ回転させている。また、第2の実施形態のコミュニケーション装置10Aでは、自装置のディスプレイ本体131の画面方向θに応じて、ディスプレイ本体131の画面に表示する遠隔側背景映像を、ディスプレイ本体131の画面の回転方向と逆方向に歪ませる処理(射影変換処理)を行っている。これにより、コミュニケーション装置10Aでは、自装置利用者に、遠隔側人物映像が静止しているかのように見せること等ができる。このことで、コミュニケーション装置10Aでは、自装置利用者へ、遠隔側利用者の些細な動作を、ディスプレイ本体131の画面の回転として強調して表現することができ、自装置利用者に対して遠隔側利用者の存在感を伝達することができる。 In the communication apparatus 10A of the second embodiment, the screen direction of the display main body 131 of the own apparatus is made to follow the user information (user line-of-sight direction θ E ) of the remote user. Specifically, for example, in the communication device 10A, when the remote user rotates the head direction to the right, the screen direction of the display main body 131 of the own device is rotated to the right correspondingly. I am letting. Further, in the communication device 10A of the second embodiment, the remote-side background image displayed on the screen of the display main body 131 according to the screen direction θ S of the display main body 131 of the own device is displayed. (Projection transformation process) to distort in the opposite direction. Thereby, in the communication apparatus 10A, it is possible to make it appear to the user of the apparatus as if the remote person image is stationary. Thus, in the communication device 10A, it is possible to express to the user device user a trivial operation of the remote user by emphasizing it as a rotation of the screen of the display main body 131. The presence of the side user can be transmitted.

また、第2の実施形態のコミュニケーション装置10Aは、ハードウェア的には、従来のビデオ会議端末等に、ディスプレイの画面方向を制御できる機構を設けるだけで構築することができるため、低コストで実現することが可能である。   In addition, the communication device 10A of the second embodiment can be constructed at a low cost because it can be constructed simply by providing a mechanism that can control the screen direction of a display in a conventional video conference terminal or the like. Is possible.

(C)第3の実施形態
以下、本発明によるコミュニケーションシステム及びコミュニケーション装置の第3の実施形態を、図面を参照しながら詳述する。
(C) Third Embodiment Hereinafter, a third embodiment of a communication system and a communication device according to the present invention will be described in detail with reference to the drawings.

(C−1)第3の実施形態の構成
第3の実施形態のコミュニケーションシステム1Bの構成も、上述の図2により示すことができる。以下、第3の実施形態について、第1の実施形態との差異を中心として説明する。
(C-1) Configuration of Third Embodiment The configuration of the communication system 1B of the third embodiment can also be shown in FIG. 2 described above. Hereinafter, the third embodiment will be described with a focus on differences from the first embodiment.

第3の実施形態のコミュニケーションシステム1Bでは、コミュニケーション装置10(10−1、10−2)が、コミュニケーション装置10B(10B−1、10B−2)に置き換わっている点で、第1の実施形態と異なっている。   The communication system 1B of the third embodiment is different from the first embodiment in that the communication device 10 (10-1, 10-2) is replaced with the communication device 10B (10B-1, 10B-2). Is different.

第3のコミュニケーション装置10Bのハードウェア構成は、上述の図3に示す構成において、カメラ12がカメラシステム14(詳細については後述する)に置き換わっている点で、第1の実施形態と異なっている。一方、第3の実施形態のコミュニケーション装置10Bを構成するコミュニケーション装置本体11Bの機能的構成については、上述の図1により示すことができる。   The hardware configuration of the third communication device 10B is different from that of the first embodiment in that the camera 12 is replaced with a camera system 14 (details will be described later) in the configuration shown in FIG. . On the other hand, the functional configuration of the communication device main body 11B constituting the communication device 10B of the third embodiment can be shown in FIG. 1 described above.

第3の実施形態では、コミュニケーション装置10Bを構成するコミュニケーション装置本体11Bは、機能的には、映像取得部101B、映像処理部102、情報送信部103、情報受信部104、映像合成部105B、映像表示部106、回転制御部107、及び制御部108を有している。第3の実施形態のコミュニケーション装置本体11Bでは、機能的には、映像取得部101B及び映像合成部105B以外の構成については、第1の実施形態と同様であるため、詳しい説明を省略する。   In the third embodiment, the communication device main body 11B constituting the communication device 10B functionally includes a video acquisition unit 101B, a video processing unit 102, an information transmission unit 103, an information reception unit 104, a video synthesis unit 105B, and a video. A display unit 106, a rotation control unit 107, and a control unit 108 are provided. Functionally, in the communication apparatus main body 11B of the third embodiment, since the configuration other than the video acquisition unit 101B and the video synthesis unit 105B is the same as that of the first embodiment, detailed description thereof is omitted.

次に、第3の実施形態のコミュニケーション装置10Bにおける、複数のカメラ15を備えるカメラシステム14について説明する。   Next, a camera system 14 including a plurality of cameras 15 in the communication device 10B of the third embodiment will be described.

図10は、第3の実施形態のコミュニケーション装置10Bが備えるカメラシステム14の構成について示した説明図である。図10では、カメラシステム14を構成する複数のカメラ15、利用者U、及びディスプレイ本体131の位置関係を上方向から見た構成について示している。   FIG. 10 is an explanatory diagram showing the configuration of the camera system 14 included in the communication device 10B of the third embodiment. FIG. 10 shows a configuration in which the positional relationship among the plurality of cameras 15, the user U, and the display main body 131 constituting the camera system 14 is viewed from above.

図10に示すように、カメラシステム14は、3つのカメラ15(15−1〜15−3)を備えている。また、図10に示すように、それぞれのカメラ15(15−1〜15−3)は、カメラ本体151(151−1〜151−3)及び、カメラ回転板152(152−1〜152−3)を備えている。それぞれのカメラ15は、第1の実施形態のカメラ12と同様のものを適用することができる。そして、カメラ15−1は、第1の実施形態のカメラ12と同様の位置に配置されているものとする。そして、カメラ15−2及びカメラ15−3は、利用者Uから見て、カメラ15−1とは異なる方向から、利用者Uを撮像できるように配置されているものとする。   As shown in FIG. 10, the camera system 14 includes three cameras 15 (15-1 to 15-3). As shown in FIG. 10, each camera 15 (15-1 to 15-3) includes a camera main body 151 (151-1 to 151-3) and a camera rotation plate 152 (152-1 to 152-3). ). Each camera 15 can be the same as the camera 12 of the first embodiment. And the camera 15-1 shall be arrange | positioned in the same position as the camera 12 of 1st Embodiment. The camera 15-2 and the camera 15-3 are arranged so that the user U can be imaged from a direction different from the camera 15-1 when viewed from the user U.

図10では、初期状態において所定の基準位置に利用者Uが位置した場合に、利用者Uから見て、カメラ15−1は、利用者Uの正面方向(ディスプレイ本体131の回転軸と同じ方向)に配置されており、カメラ15−2は利用者から見て左側、カメラ15−3は利用者から見て右側に、それぞれ配置されている。なお、カメラシステム14において、配置するカメラ15の数及び配置する位置(撮像する方向)については限定されないものである。そして、カメラシステム14では、それぞれのカメラ15で撮像した映像データを、映像取得部101Bに供給する。   In FIG. 10, when the user U is located at a predetermined reference position in the initial state, the camera 15-1 is viewed from the user U in the front direction of the user U (the same direction as the rotation axis of the display main body 131). The camera 15-2 is arranged on the left side when viewed from the user, and the camera 15-3 is arranged on the right side when viewed from the user. In the camera system 14, the number of cameras 15 to be arranged and the positions to be arranged (imaging direction) are not limited. Then, the camera system 14 supplies the video data captured by each camera 15 to the video acquisition unit 101B.

映像取得部101Bは、それぞれのカメラ15から供給された映像データを、遠隔側装置にリアルタイムで送信する。   The video acquisition unit 101B transmits the video data supplied from each camera 15 to the remote device in real time.

第1の実施形態のコミュニケーション装置10では、遠隔側装置から自装置に供給されてくる映像データは1種類であったが、第3の実施形態のコミュニケーション装置10Bでは、上述の通り3種類の映像データが供給されてくる。したがって、第3の実施形態の映像合成部105Bでは、処理対象となる映像データの選択を行う必要がある。ここでは、映像合成部105Bは、自装置利用者の利用者頭部方向θに応じて、映像データを選択するものとする。例えば、自装置利用者の利用者頭部方向θが90度だった場合には、自装置利用者は、ディスプレイ本体131から見て右側に移動したことになる。そして、このときディスプレイ本体131に、遠隔利用者を右側から撮影することができるカメラ15−3が撮影した映像を表示することで、自装置利用者には、あたかもその場に遠隔利用者が存在するような臨場感を与えることができる。 In the communication device 10 of the first embodiment, there is one type of video data supplied from the remote side device to the own device. However, in the communication device 10B of the third embodiment, as described above, there are three types of video data. Data is supplied. Therefore, the video composition unit 105B of the third embodiment needs to select video data to be processed. Here, the image combining unit 105B in response to the user head direction theta H of the apparatus user shall select the video data. For example, when the user head direction θ H of the user's own device is 90 degrees, the user's own device has moved to the right as viewed from the display main body 131. At this time, by displaying an image captured by the camera 15-3 that can capture a remote user from the right side on the display main body 131, the user of the device itself is as if the remote user exists on the spot. Can give a sense of realism.

ここでは、カメラ15ごとに対応する利用者頭部方向θの情報が、映像合成部105Bに登録されているものとする。ここでは、映像合成部105Bは、利用者頭部方向θが−45度〜+45の範囲内の場合にカメラ15−1の映像データを処理対象として選択するものとする。また、映像合成部105Bは、利用者頭部方向θが+45度〜+90の範囲内の場合にカメラ15−3の映像データを処理対象として選択するものとする。さらに、映像合成部105Bは、利用者頭部方向θが−45度〜―90の範囲内の場合にカメラ15−2の映像データを処理対象として選択するものとする。 Here, it is assumed that information on the user head direction θ H corresponding to each camera 15 is registered in the video composition unit 105B. Here, it is assumed that the video composition unit 105B selects the video data of the camera 15-1 as a processing target when the user head direction θ H is within a range of −45 degrees to +45. The video synthesizing unit 105B is assumed to select the video data of the camera 15-3 when the user head direction theta H is within the range of +45 degrees to +90 for processing. Further, the video compositing unit 105B is assumed to select the video data of the camera 15-2 as the processing target when the user head direction theta H is within the range of -45 ° to -90.

そして、ここでは、映像合成部105Bは、選択した映像データについて、加工せずに、そのまま映像表示部106に供給するものとする。   In this case, the video composition unit 105B supplies the selected video data to the video display unit 106 as it is without processing.

(C−2)第3の実施形態の動作
次に、以上のような構成を有する第3の実施形態のコミュニケーションシステム1Bの動作を説明する。
(C-2) Operation of the Third Embodiment Next, the operation of the communication system 1B of the third embodiment having the above configuration will be described.

以下では、第1の利用者U1が利用するコミュニケーション装置10B−1の動作を中心として説明する。   Hereinafter, the operation of the communication device 10B-1 used by the first user U1 will be mainly described.

図11は、コミュニケーションシステム1Bを構成するコミュニケーション装置10Bの動作について示したフローチャートである。   FIG. 11 is a flowchart showing the operation of the communication device 10B constituting the communication system 1B.

以下では、図11を用いて、コミュニケーション装置10B−1が、利用する第1の利用者U1の動きに応じて動作する場合について説明する。   Below, the case where communication apparatus 10B-1 operate | moves according to a motion of the 1st user U1 to utilize is demonstrated using FIG.

まず、コミュニケーション装置10B−1とコミュニケーション装置10B−2との間でビデオ通話が開始されたものとする(S300)。   First, it is assumed that a video call is started between the communication device 10B-1 and the communication device 10B-2 (S300).

次に、コミュニケーション装置10B−1の映像処理部102Bにて、映像取得部101Bより取得された第1の利用者U1の映像を用いて、第1の利用者U1の利用者情報として利用者頭部方向θH1が算出される(S301)。 Next, the video processing unit 102B of the communication device 10B-1 uses the video of the first user U1 acquired from the video acquisition unit 101B, and uses the user's head as the user information of the first user U1. The part direction θ H1 is calculated (S301).

次に、映像処理部102Bにて、上述のステップS301で算出された利用者頭部方向θH1に基づいて、画面方向θS1及び回転量θT1が決定される。そして、映像処理部102Bから回転制御部107へ決定された回転量θT1の情報が与えられる。そして、回転制御部107は、与えられた回転量θT1にしたがって、ディスプレイ本体131(ディスプレイ回転板132)を回転動作させる(S302)。 Next, the video processing unit 102B determines the screen direction θ S1 and the rotation amount θ T1 based on the user head direction θ H1 calculated in step S301 described above. Then, the information of the determined rotation amount θ T1 is given from the video processing unit 102B to the rotation control unit 107. Then, the rotation control unit 107, in accordance with a given amount of rotation theta T1, rotating operating a display body 131 (display rotating plate 132) (S302).

そして、映像合成部105Bにて、遠隔側装置(コミュニケーション装置10B−2)からの映像データ(複数種類の映像データ)が取得される(S303)。   Then, the video composition unit 105B acquires video data (a plurality of types of video data) from the remote device (communication device 10B-2) (S303).

そして、映像合成部105Bにて、自装置利用者の利用者情報(利用者頭部方向θH1)に基づいて、遠隔側装置から供給された複数種類の映像データから処理対象となるものが1つ選択され、映像表示部106に与えられる(S304)。 In the video composition unit 105B, based on the user information (user head direction θ H1 ) of the user of the own device, one to be processed from a plurality of types of video data supplied from the remote device is 1 Are selected and given to the video display unit 106 (S304).

そして、映像表示部106により、映像合成部105Bから与えられた映像データの映像が、ディスプレイ本体131に表示される(S305)。なお、ステップS303〜S305の処理は、次に利用者情報が更新されるまで繰り返し行われる。   Then, the video display unit 106 displays the video of the video data provided from the video synthesis unit 105B on the display main body 131 (S305). Note that the processes in steps S303 to S305 are repeated until the user information is updated next time.

そして、コミュニケーション装置10B−1の制御部108にて、コミュニケーション装置10B−2とのコミュニケーションが継続しているか否か、すなわち、コミュニケーション装置10B−1、10B−2の間の回線がつながっているか否かが確認される(S306)。ステップS306にて、コミュニケーション装置10B−2とのコミュニケーションが継続していると判定された場合(回線が接続中の場合)には、制御部108は、上述のステップS301の処理に戻って、動作するように、各構成要素を制御する。一方、ステップS306にて、コミュニケーション装置10B−2とのコミュニケーションが継続していると判定された場合(回線が切断された場合)には、制御部108は、上述の一連の処理を終了する(S307)。   Then, whether or not communication with communication device 10B-2 is continued in control unit 108 of communication device 10B-1, that is, whether or not the line between communication devices 10B-1 and 10B-2 is connected. Is confirmed (S306). If it is determined in step S306 that communication with the communication device 10B-2 is continuing (when the line is connected), the control unit 108 returns to the processing in step S301 described above and operates. Each component is controlled as follows. On the other hand, when it is determined in step S306 that communication with the communication device 10B-2 is continuing (when the line is disconnected), the control unit 108 ends the above-described series of processing ( S307).

(C−3)第3の実施形態の効果
第3の実施形態によれば、以下のような効果を奏することができる。
(C-3) Effects of Third Embodiment According to the third embodiment, the following effects can be achieved.

第3の実施形態のコミュニケーション装置10Bでは、自装置利用者の利用者情報(利用者頭部方向θ)に、自装置のディスプレイ本体131の画面方向を追従させている。具体的には、コミュニケーション装置10Bでは、自装置利用者に、ディスプレイ本体131の画面を正対させるように、ディスプレイ本体131の画面方向を制御している。 In the communication apparatus 10B of the third embodiment, the screen direction of the display main body 131 of the own apparatus is made to follow the user information (user head direction θ H ) of the own apparatus user. Specifically, in the communication device 10B, the screen direction of the display main body 131 is controlled so that the user of the own device faces the screen of the display main body 131 directly.

また、第3の実施形態のコミュニケーション装置10Bでは、自装置利用者の利用者情報(利用者頭部方向θ)に応じて、ディスプレイ本体131の画面に表示する遠隔側映像(遠隔側利用者を撮像する角度)を切替えている。これにより、コミュニケーション装置10Bでは、自装置利用者に対して、遠隔側利用者が自身の動作に追従しているように見せることができる。このことで、コミュニケーション装置10Bでは、自装置利用者に対して、遠隔側利用者を様々な角度から見回われるような感覚を与えることができ、相手(遠隔側利用者)の存在感を高めることができる。 Further, in the communication device 10B of the third embodiment, a remote-side video (remote-side user) displayed on the screen of the display main body 131 according to the user information (user head direction θ H ) of the user of the own device. The angle at which the image is captured is switched. Thereby, in the communication apparatus 10B, it can be shown to the own apparatus user that the remote user is following the operation | movement of self. As a result, in the communication device 10B, it is possible to give a sense that the remote device can be looked around from various angles to the user of the device, and the presence of the partner (remote device) is enhanced. be able to.

また、第3の実施形態のコミュニケーション装置10Bは、ハードウェア的には、従来のビデオ会議端末等に、ディスプレイの画面方向を制御できる機構や、複数のカメラを設けるだけで構築することができるため、低コストで実現することが可能である。   In addition, the communication device 10B according to the third embodiment can be constructed simply by providing a mechanism capable of controlling the screen direction of a display or a plurality of cameras in a conventional video conference terminal or the like in terms of hardware. Can be realized at low cost.

(D)第4の実施形態
以下、本発明によるコミュニケーションシステム及びコミュニケーション装置の第4の実施形態を、図面を参照しながら詳述する。
(D) Fourth Embodiment Hereinafter, a communication system and a communication device according to a fourth embodiment of the present invention will be described in detail with reference to the drawings.

(D−1)第4の実施形態の構成
第4の実施形態のコミュニケーションシステム1Cの構成も、上述の図2により示すことができる。以下、第4の実施形態について、第3の実施形態との差異を中心として説明する。
(D-1) Configuration of Fourth Embodiment The configuration of the communication system 1C of the fourth embodiment can also be shown in FIG. 2 described above. Hereinafter, the fourth embodiment will be described focusing on differences from the third embodiment.

第4の実施形態のコミュニケーションシステム1Cでは、コミュニケーション装置10B(10B−1、10B−2)が、コミュニケーション装置10C(10C−1、10C−2)に置き換わっている点で、第3の実施形態と異なっている。   In the communication system 1C of the fourth embodiment, the communication device 10B (10B-1, 10B-2) is replaced with the communication device 10C (10C-1, 10C-2). Is different.

第4のコミュニケーション装置10Cのハードウェア構成は、第3の実施形態と同様の構成となっている。すなわち、第4のコミュニケーション装置10Cは、第3の実施形態と同様に、カメラシステム14を備えている。また、第4の実施形態のコミュニケーション装置10Cを構成するコミュニケーション装置本体11Cの機能的構成については、上述の図1により示すことができる。   The hardware configuration of the fourth communication device 10C is the same as that of the third embodiment. That is, the fourth communication device 10C includes the camera system 14 as in the third embodiment. Further, the functional configuration of the communication device main body 11C constituting the communication device 10C of the fourth embodiment can be shown in FIG. 1 described above.

第4の実施形態のコミュニケーション装置10Cを構成するコミュニケーション装置本体11Cは、機能的には、映像取得部101B、映像処理部102C、情報送信部103、情報受信部104、映像合成部105C、映像表示部106、回転制御部107C、及び制御部108を有している。第4の実施形態のコミュニケーション装置本体11Cでは、機能的には、映像処理部102C、映像合成部105C及び回転制御部107C以外の構成については、第3の実施形態と同様であるので詳しい説明を省略する。   The communication device main body 11C constituting the communication device 10C of the fourth embodiment functionally includes a video acquisition unit 101B, a video processing unit 102C, an information transmission unit 103, an information reception unit 104, a video synthesis unit 105C, and a video display. Unit 106, rotation control unit 107C, and control unit 108. The communication device main body 11C of the fourth embodiment is functionally the same as the third embodiment except for the video processing unit 102C, the video synthesis unit 105C, and the rotation control unit 107C. Omitted.

映像処理部102Cは、利用者情報として、利用者頭部方向θではなく、利用者視線方向θを把握する点で、第3の実施形態と異なっている。 The video processing unit 102C is different from the third embodiment in that the user information is not the user head direction θ H but the user line-of-sight direction θ E as user information.

第3の実施形態において、映像処理部102Bは、自装置利用者の利用者頭部方向θに基づいて、遠隔側装置から自装置に供給されてくる複数種類の映像データから、1種類の映像データを選択していた。これに対して、第4の実施形態の映像処理部102Cでは、遠隔側利用者の利用者視線方向θに応じて、映像データを選択するものとする。ここでは、映像合成部105Cは、利用者視線方向θに基づいて、遠隔側利用者の顔をできるだけ正面から撮影した映像データを選択するものとする。 In a third embodiment, the video processing unit 102B is based on the use's head direction theta H of the apparatus user, a plurality of kinds of video data supplied to the own device from the remote side apparatus, one type of Video data was selected. In contrast, in the image processing unit 102C of the fourth embodiment, in response to user viewing direction theta E of the remote side user shall select the video data. Here, the image combining unit 105C, based on user viewing direction theta E, assumed to select the video data taken from possible front face of the remote-side user.

図10に示すように、遠隔側装置のカメラシステム14には、3台のカメラ15−1〜15−3が配置されている。そして、カメラ15ごとに対応する遠隔側利用者の利用者視線方向θの情報が、映像合成部105Cで保持されているものとする。例えば、映像合成部105Cは、利用者視線方向θが−45度〜+45の範囲内の場合にカメラ15−1の映像データを処理対象として選択するものとする。また、映像合成部105Cは、利用者視線方向θが+45度〜+90の範囲内の場合にカメラ15−2の映像データを処理対象として選択するものとする。さらに、映像合成部105Cは、利用者視線方向θが−45度〜―90の範囲内の場合にカメラ15−3の映像データを処理対象として選択するものとする。 As shown in FIG. 10, three cameras 15-1 to 15-3 are arranged in the camera system 14 of the remote device. Then, the information of the remote-side user of the user viewing direction theta E corresponding to each camera 15 is assumed to have been held by the video synthesis section 105C. For example, the image combining unit 105C is assumed to select the video data of the camera 15-1 as the processing target when the user viewing direction theta E in the range of -45 degrees to +45. The video composition unit 105C selects the video data of the camera 15-2 as a processing target when the user's line-of-sight direction θ E is in the range of +45 degrees to +90. Further, the image combining unit 105C is assumed to select the video data of the camera 15-3 as the processing target when the user viewing direction theta E in the range of -45 ° to -90.

そして、ここでは、映像合成部105Cは、選択した映像データについて、加工せずに、そのまま映像表示部106に供給するものとする。   Here, the video composition unit 105C supplies the selected video data to the video display unit 106 as it is without processing.

第3の実施形態の回転制御部107は、第1の実施形態と同様に、自装置利用者の利用者頭部方向θに基づいて、自装置のディスプレイ本体131を向ける方向(画面方向θ)を決定していた。これに対して、第4の実施形態の回転制御部107Cでは、第2の実施形態の回転制御部107Aと同様に、遠隔側利用者の利用者視線方向θに基づいて、自装置の画面方向θを決定するものとする。すなわち、回転制御部107Cは、第2の実施形態の回転制御部107Aと同様の処理を行うものであり、ここでは詳しい説明を省略する。 As in the first embodiment, the rotation control unit 107 according to the third embodiment is configured to direct the display main body 131 of the own device based on the user head direction θ H of the own device user (screen direction θ S ) was determined. In contrast, in the fourth embodiment of the rotation control section 107C, similar to the rotation control section 107A of the second embodiment, based on user viewing direction theta E of the remote side user, own device screen The direction θ S shall be determined. That is, the rotation control unit 107C performs the same processing as the rotation control unit 107A of the second embodiment, and detailed description thereof is omitted here.

(D−2)第4の実施形態の動作
次に、以上のような構成を有する第4の実施形態のコミュニケーションシステム1Cの動作を説明する。
(D-2) Operation of the Fourth Embodiment Next, the operation of the communication system 1C of the fourth embodiment having the above configuration will be described.

以下では、第1の利用者U1が利用するコミュニケーション装置10C−1の動作を中心として説明する。   Hereinafter, the operation of the communication device 10C-1 used by the first user U1 will be mainly described.

図12は、コミュニケーションシステム1Cを構成するコミュニケーション装置10Cの動作について示したフローチャートである。   FIG. 12 is a flowchart showing the operation of the communication device 10C constituting the communication system 1C.

まず、コミュニケーション装置10C−1とコミュニケーション装置10C−2との間でビデオ通話が開始されたものとする(S400)。   First, it is assumed that a video call is started between the communication device 10C-1 and the communication device 10C-2 (S400).

そして、コミュニケーション装置10C−2の映像処理部102により、映像取得部101で取得された第2の利用者U2の映像を用いて、第2の利用者U2の状態に関する利用者情報(利用者視線方向θE2)が算出される。そして、コミュニケーション装置10C−2で算出された利用者情報(利用者視線方向θE2)が、コミュニケーション装置10C−1に供給されたものとする(S401)。 Then, by using the video of the second user U2 acquired by the video acquisition unit 101 by the video processing unit 102 of the communication device 10C-2, user information regarding the state of the second user U2 (user gaze) The direction θ E2 ) is calculated. Then, it is assumed that the user information (user line-of-sight direction θ E2 ) calculated by the communication device 10C-2 is supplied to the communication device 10C-1 (S401).

そして、コミュニケーション装置10−1において、回転制御部107Cにより、上述のステップS401で供給された利用者視線方向θE2に基づいて、画面方向θS1及び回転量θT1が決定される。そして、回転制御部107Cにより、決定された回転量θT1にしたがって、ディスプレイ本体131(ディスプレイ回転板132)が回転動作するように制御される(S402)。 In the communication device 10-1, the rotation control unit 107C determines the screen direction θ S1 and the rotation amount θ T1 based on the user line-of-sight direction θ E2 supplied in step S401 described above. Then, the rotation control unit 107C, according to the determined amount of rotation theta T1, the display body 131 (display rotating plate 132) is controlled to operate rotation (S402).

そして、映像合成部105Cにて、遠隔側利用者の利用者視線方向θE2に基づいて、遠隔側装置から供給された複数種類の映像データから処理対象となるものが1つ選択され、映像表示部106に与えられる(S403)。 Then, in the video composition unit 105C, based on the user's line-of-sight direction θ E2 of the remote user, one to be processed is selected from a plurality of types of video data supplied from the remote device, and the video display is performed. Is given to the unit 106 (S403).

そして、映像表示部106により、映像合成部105Cから与えられた映像データの映像が、ディスプレイ本体131に表示される(S404)。なお、ステップS403、S404の処理は、次に利用者情報が更新されるまで繰り返し行われる。   Then, the video display unit 106 displays the video of the video data provided from the video composition unit 105C on the display main body 131 (S404). Note that the processes in steps S403 and S404 are repeated until the user information is updated next time.

そして、コミュニケーション装置10C−1の制御部108にて、コミュニケーション装置10C−2とのコミュニケーションが継続しているか否か、すなわち、コミュニケーション装置10C−1、10C−2の間の回線がつながっているか否かが確認される(S405)。ステップS405にて、コミュニケーション装置10C−2とのコミュニケーションが継続していると判定された場合(回線が接続中の場合)には、制御部108は、上述のステップS401の処理に戻って動作するように、各構成要素を制御する。一方、ステップS405にて、コミュニケーション装置10C−2とのコミュニケーションが継続していると判定された場合(回線が切断された場合)には、制御部108は、上述の一連の処理を終了する(S406)。   Then, in the control unit 108 of the communication device 10C-1, whether or not communication with the communication device 10C-2 is continued, that is, whether or not the line between the communication devices 10C-1 and 10C-2 is connected. Is confirmed (S405). If it is determined in step S405 that communication with the communication device 10C-2 is continuing (when the line is connected), the control unit 108 returns to the process of step S401 described above and operates. Thus, each component is controlled. On the other hand, when it is determined in step S405 that communication with the communication device 10C-2 is continued (when the line is disconnected), the control unit 108 ends the above-described series of processing ( S406).

(D−3)第4の実施形態の効果
第4の実施形態によれば、以下のような効果を奏することができる。
(D-3) Effects of the fourth embodiment According to the fourth embodiment, the following effects can be achieved.

第4の実施形態のコミュニケーション装置10Cでは、第2の実施形態と同様に、遠隔側利用者の利用者情報(利用者視線方向θ)に、自装置のディスプレイ本体131の画面方向を追従させている。また、第4の実施形態のコミュニケーション装置10Cでは、自装置利用者の利用者情報(利用者視線方向θ)に応じて、ディスプレイ本体131の画面に表示する遠隔側映像(遠隔側利用者を撮像する角度)を切替えている。例えば、コミュニケーション装置10Cでは、複数の角度から遠隔側利用者を撮影した映像データのうち、できるだけ遠隔側利用者が正面を向いている映像の映像データを選択して、ディスプレイ本体131の画面に表示している。これにより、コミュニケーション装置10Cでは、自装置利用者に対して、常に、正面方向から撮影した遠隔側利用者を提示することができる。これにより、コミュニケーション装置10Cでは、自装置利用者へ、第2の実施形態のような存在感を伝達すると同時に、遠隔側利用者の顔の表情を同時に見せることができ、より臨場感のあるコミュニケーションを提供することができる。 In the communication device 10 </ b> C of the fourth embodiment, the screen direction of the display main body 131 of the own device is made to follow the user information (user gaze direction θ E ) of the remote user, as in the second embodiment. ing. Further, in the communication device 10C of the fourth embodiment, the remote-side video (remote-side user is displayed on the screen of the display main body 131 in accordance with the user information (user gaze direction θ E ) of the user of the own device. The angle of imaging) is switched. For example, in the communication device 10C, video data of a video in which the remote user is facing the front as much as possible is selected from video data obtained by photographing the remote user from a plurality of angles and displayed on the screen of the display main body 131. is doing. Thereby, in the communication apparatus 10C, it is possible to always present the remote user photographed from the front direction to the own apparatus user. As a result, the communication device 10C can transmit the presence as in the second embodiment to the user of the device itself, and at the same time, can simultaneously show the facial expression of the remote user's face, making the communication more realistic. Can be provided.

また、第4の実施形態のコミュニケーション装置10Cは、ハードウェア的には、従来のビデオ会議端末等に、ディスプレイの画面方向を制御できる機構や、複数のカメラを設けるだけで構築することができるため、低コストで実現することが可能である。   In addition, the communication device 10C of the fourth embodiment can be constructed simply by providing a mechanism capable of controlling the screen direction of a display or a plurality of cameras in a conventional video conference terminal or the like in terms of hardware. Can be realized at low cost.

(E)第5の実施形態
以下、本発明によるコミュニケーションシステム及びコミュニケーション装置の第5の実施形態を、図面を参照しながら詳述する。
(E) Fifth Embodiment Hereinafter, a fifth embodiment of a communication system and a communication device according to the present invention will be described in detail with reference to the drawings.

(E−1)第5の実施形態の構成
第5の実施形態のコミュニケーションシステム1Dの構成も、図2により示すことができる。
(E-1) Configuration of Fifth Embodiment The configuration of the communication system 1D of the fifth embodiment can also be shown in FIG.

第5の実施形態のコミュニケーションシステム1Dは、コミュニケーション装置10D(10D−1、10D−2)を有している。   The communication system 1D of the fifth embodiment includes a communication device 10D (10D-1, 10D-2).

第5の実施形態のコミュニケーション装置10Dは、動作モードを切り替えることにより、第1〜第4の実施形態のいずれかの処理を実現する構成を備えている。すなわち、第5の実施形態のコミュニケーション装置10Dは、第1の実施形態と同様の動作を行うことができる動作モード(以下、「モードM1」と表わす)と、第2の実施形態と同様の動作を行うことができる動作モード(以下、「モードM2」と表わす)と、第3の実施形態と同様の動作を行うことができる動作モード(以下、「モードM3」と表わす)と、第4の実施形態と同様の動作を行うことができる動作モード(以下、「モードM4」と表わす)とを備えており、動作モードを切り替えて動作することができる。   The communication device 10D according to the fifth embodiment includes a configuration that realizes the processing according to any one of the first to fourth embodiments by switching the operation mode. That is, the communication device 10D of the fifth embodiment has an operation mode (hereinafter referred to as “mode M1”) capable of performing the same operation as that of the first embodiment, and an operation similar to that of the second embodiment. An operation mode (hereinafter referred to as “mode M2”), an operation mode capable of performing the same operation as in the third embodiment (hereinafter referred to as “mode M3”), An operation mode (hereinafter referred to as “mode M4”) capable of performing the same operation as in the embodiment is provided, and the operation mode can be switched.

以下、第5の実施形態について、第1〜第4の実施形態との差異について説明する。   Hereinafter, a difference between the fifth embodiment and the first to fourth embodiments will be described.

コミュニケーション装置10Dは、ハードウェア的には、第3及び第4の実施形態のコミュニケーション装置10B、10Cと同様の構成を備えているものとする。ここでは、コミュニケーション装置10Dは、第3、第4の実施形態と同様に、カメラシステム14を備えており、モードM1、モードM2で動作する場合には、カメラシステム14を構成する一つのカメラ15(ここでは、カメラ15−1であるものとする)が、第1及び第2の実施形態におけるカメラ12として動作するものとして説明する。   The communication device 10D is assumed to have the same configuration as the communication devices 10B and 10C of the third and fourth embodiments in terms of hardware. Here, the communication device 10D includes the camera system 14 as in the third and fourth embodiments. When operating in the mode M1 and the mode M2, one camera 15 constituting the camera system 14 is provided. (Here, it is assumed that it is the camera 15-1) is assumed to operate as the camera 12 in the first and second embodiments.

図13は、コミュニケーション装置10Dを構成するコミュニケーション装置本体11Dの機能的構成について示した説明図である。   FIG. 13 is an explanatory diagram showing a functional configuration of a communication device main body 11D constituting the communication device 10D.

コミュニケーション装置10Dを構成するコミュニケーション装置本体11Dは、機能的には、映像取得部101D、映像処理部102D、情報送信部103、情報受信部104、映像合成部105D、映像表示部106、回転制御部107D、制御部108、及びコミュニケーション推定部109を有している。情報送信部103、情報受信部104、映像表示部106、及び制御部108については、第1〜第4の実施形態と同様のものを適用することができるので、詳しい説明を省略する。   The communication device main body 11D constituting the communication device 10D functionally includes a video acquisition unit 101D, a video processing unit 102D, an information transmission unit 103, an information reception unit 104, a video synthesis unit 105D, a video display unit 106, and a rotation control unit. 107D, the control part 108, and the communication estimation part 109 are included. Since the information transmission unit 103, the information reception unit 104, the video display unit 106, and the control unit 108 can be the same as those in the first to fourth embodiments, detailed description thereof is omitted.

コミュニケーション推定部109は、自装置利用者と遠隔側利用者との間のコミュニケーションの状況に応じて、自装置の動作モードを選択する。そして、コミュニケーション推定部109は、選択した動作モードで動作するように自装置の各構成要素を制御する処理を行う。なお、この実施形態において、コミュニケーション装置10Dは、上述の通り、モードM1〜モードM4に対応するものとして説明するが、対応する動作モードの数や組合せは限定されないものである。例えば、コミュニケーション装置10Dでは、モードM1〜モードM4のうち一部の動作モードについてだけ対応するようにしても良いし、さらに他の動作モードを追加するようにしても良い。   The communication estimation unit 109 selects the operation mode of the own device according to the state of communication between the own device user and the remote user. Then, the communication estimation unit 109 performs a process of controlling each component of the own device so as to operate in the selected operation mode. In this embodiment, the communication device 10D is described as corresponding to the modes M1 to M4 as described above, but the number and combination of the corresponding operation modes are not limited. For example, in the communication device 10D, only a part of the operation modes among the modes M1 to M4 may be supported, or another operation mode may be added.

そして、映像取得部101D、映像処理部102D、映像合成部105D、及び回転制御部107Dは、コミュニケーション推定部109で選択された動作モードに従った処理を行うようになる。例えば、コミュニケーション推定部109で、モードM1が選択された場合には、映像取得部101D、映像処理部102D、映像合成部105D、及び回転制御部107Dは、第1の実施形態と同様の処理(例えば、上述の図6に示すフローチャートの処理)を行うことになる。   Then, the video acquisition unit 101D, the video processing unit 102D, the video synthesis unit 105D, and the rotation control unit 107D perform processing according to the operation mode selected by the communication estimation unit 109. For example, when the mode M1 is selected by the communication estimation unit 109, the video acquisition unit 101D, the video processing unit 102D, the video synthesis unit 105D, and the rotation control unit 107D perform the same processing as in the first embodiment ( For example, the process of the flowchart shown in FIG. 6 is performed.

コミュニケーション推定部109が、初期において選択する動作モードは限定されないものであり、例えば、予め設定された動作モードで動作を開始し、その後他の動作モードに切り替えるようにしても良い。   The operation mode to be initially selected by the communication estimation unit 109 is not limited. For example, the operation may be started in a preset operation mode and then switched to another operation mode.

また、コミュニケーション推定部109が、動作モードを切り替える契機については限定されないものである。コミュニケーション推定部109が、動作モードを切り替える契機については、例えば、自装置利用者又は遠隔側利用者の操作(例えば、図示しないキーボードやタッチパネル等を用いた操作)に基づいて、切り替えるようにしても良い。また、コミュニケーション推定部109は、例えば、利用者情報や、利用者の発話した音声に基づいて、自装置利用者と遠隔側利用者との間のコミュニケーションの状況を推定し、その推定結果に基づいて、自装置の動作モードを切り替えるようにしても良く、具体例としては、以下のような方法が挙げられる。   Further, the opportunity for the communication estimation unit 109 to switch the operation mode is not limited. For example, the communication estimation unit 109 may switch the operation mode based on an operation (for example, an operation using a keyboard or a touch panel (not shown)) of the user of the apparatus or the remote user. good. Further, the communication estimation unit 109 estimates the communication status between the user of the apparatus and the remote user based on, for example, user information or voice spoken by the user, and based on the estimation result. Thus, the operation mode of the device itself may be switched. Specific examples include the following methods.

[コミュニケーション時間に応じた切替え]
コミュニケーション推定部109が、自装置の動作モードの選択を行う方法としては、例えば、コミュニケーション時間が挙げられる。
[Switching according to communication time]
As a method for the communication estimation unit 109 to select the operation mode of the own device, for example, communication time can be cited.

例えば、コミュニケーション推定部109は、自装置利用者と遠隔側利用者との間の会話が始まってすぐの間(例えば、遠隔側装置との呼接続が開始されてから一定時間経過するまでの間)は、モードM1とするようにしてもよい。自装置利用者と遠隔側利用者との間の会話が始まってからすぐの間は、お互いの存在を認め合う必要があるため、相手(遠隔側利用者)の動作に応じて、画面方向及び遠隔側背景映像変換が変動しない方が良いと推定できるためである。そして、自装置利用者と遠隔側利用者との間の会話が始まってから一定時間が経過した場合(例えば、呼が接続してから一定時間経過した場合)には、コミュニケーション推定部109は、自装置の動作モードをモードM2とするようにしてもよい。自装置利用者と遠隔側利用者との間の会話が始まってから一定時間が経過した場合には、会話が乗ってきており、相手(遠隔側利用者)の反応がコミュニケーションに特に重要になるため、相手の動作に応じて、画面方向及び遠隔側背景映像を変動させた方が良いと推定できるためである。   For example, the communication estimator 109 immediately starts a conversation between the user of the own device and the remote user (for example, until a certain time elapses after the call connection with the remote device is started). ) May be set to mode M1. Immediately after the conversation between the user of the device and the remote user starts, it is necessary to recognize each other's existence. Therefore, depending on the operation of the partner (remote user), the screen direction and This is because it can be estimated that the remote background video conversion should not fluctuate. When a certain time has elapsed since the conversation between the user of the apparatus and the remote user has started (for example, when a certain time has elapsed since the call was connected), the communication estimation unit 109 The operation mode of the device itself may be set to mode M2. When a certain amount of time has passed since the conversation between the user of the device and the remote user has started, the conversation is on and the reaction of the other party (remote user) is particularly important for communication. Therefore, it can be estimated that it is better to change the screen direction and the remote side background video according to the operation of the other party.

[発話者の交代に応じた切替え]
コミュニケーション推定部109が、自装置の動作モードの選択を行う方法としては、例えば、発話者の交代に応じた切替え方法が挙げられる。
[Switching according to change of speaker]
As a method for the communication estimation unit 109 to select the operation mode of the own device, for example, a switching method according to the change of the speaker is cited.

具体的には、コミュニケーション推定部109は、話し手と聞き手の交代に応じたモードの切り替えを行うようにしても良い。コミュニケーション推定部109は、例えば、自装置が備えるマイクが捕捉した自装置利用者の音声信号と、遠隔側のコミュニケーション装置10Bから供給された遠隔側利用者の音声信号とを保持し、保持した2つの音声信号に基づいて、現在の話し手がいずれの利用者であるのかを判定するようにしても良い。コミュニケーション推定部109が、いずれの利用者が話し手であるかを判定する方法については限定されないものであるが、例えば、いずれかの利用者がある一定時間発言を続けている場合(たとえば、一定時間以上、音声信号のパワーが閾値以上だった場合)には、その利用者を話し手として判断し、他方を聞き手と判断するようにしても良い。コミュニケーション推定部109が、いずれの利用者が話し手であるかを判定する方法としては、その他にも参考文献5(特開2010−32792号公報)に記載されているような発話者の切り替えを検出することで発話者の交代を認識することや、うなずきの回数を測定して判定するようにしても良い。   Specifically, the communication estimation unit 109 may perform mode switching according to the change of the speaker and the listener. For example, the communication estimation unit 109 holds and holds the voice signal of the own device user captured by the microphone included in the own device and the voice signal of the remote user supplied from the remote communication device 10B. Based on one audio signal, it may be determined which user the current speaker is. The method for determining which user is a speaker by the communication estimation unit 109 is not limited. For example, when any user continues to speak for a certain period of time (for example, for a certain period of time). As described above, when the power of the audio signal is equal to or higher than the threshold value, the user may be determined as a speaker and the other as a listener. As another method for the communication estimation unit 109 to determine which user is a speaker, other speaker switching as described in Reference 5 (Japanese Patent Laid-Open No. 2010-32792) is detected. By doing so, the change of the speaker may be recognized, or the number of nods may be measured and determined.

そして、コミュニケーション推定部109は、現在の話し手が、自装置利用者であると判定した場合には、モードM2とするようにしても良い。これは、自装置利用者が話し手の場合には、自分の話している内容に対する相手(遠隔側利用者)の反応が知りたいと考えられるため、遠隔側利用者の動作に応じて、画面方向及び遠隔側背景映像変換を制御する方が良いと推定できるためである。また、コミュニケーション推定部109は、現在の聞き手が、自装置利用者であると判定した場合には、モードM1とするようにしても良い。これは、自装置利用者が聞き手の場合には、話している相手が目の前にいるような感覚が望まれると推定できるためである。   Then, the communication estimation unit 109 may set the mode M2 when it is determined that the current speaker is the user of the apparatus. This is because if the user of the device is a speaker, the user (remote user) will want to know the reaction of the other person (the remote user) to what he is talking about. This is because it can be estimated that it is better to control the remote background video conversion. Further, the communication estimation unit 109 may set the mode M1 when it is determined that the current listener is the user of the own apparatus. This is because when the user of the device is the listener, it can be estimated that a feeling that the other party is in front of the eyes is desired.

[利用者の身体的位置情報に応じた切り替え]
コミュニケーション推定部109が、自装置の動作モードの選択を行う方法としては、例えば、遠隔側利用者又は自装置利用者の身体的位置情報に応じたモードの切り替えが挙げられる。ここで、身体的位置情報とは、例えば、利用者頭部方向θや利用者視線方向θ等の利用者情報に含まれるパラメータが挙げられる。コミュニケーション推定部109は、例えば、遠隔側利用者又は字装置利用者の利用者情報(利用者頭部方向θ又は利用者視線方向θ)が、所定範囲を超えて変動した場合にモード切換えを行うようにしてもよい。
[Switching according to the user's physical location information]
As a method for the communication estimation unit 109 to select the operation mode of the own device, for example, switching of the mode according to the physical position information of the remote user or the user of the own device can be mentioned. Here, the physical position information includes, for example, parameters included in the user information such as the user head direction θ H and the user line-of-sight direction θ E. The communication estimation unit 109 switches the mode when, for example, the user information (user head direction θ H or user gaze direction θ E ) of the remote user or the character device user fluctuates beyond a predetermined range. May be performed.

例えば、遠隔側利用者の利用者頭部方向θが、ディスプレイ本体131の正面から見て、ある一定範囲以内の角度(例えば、−45度〜45度の範囲内)で遷移している場合には、コミュニケーション推定部109は、モードM1又はモードM2を選択するようにしても良い。また、遠隔側利用者の利用者頭部方向θが上述の範囲外の角度となった場合には、コミュニケーション推定部109は、モードM3又はモードM4を選択するようにしても良い。これは、遠隔側利用者の利用者頭部方向θが上述の一定範囲内の角度を外れた場合には、遠隔利用者の側面方向に興味の対象があると推定できるためである。 For example, when the user's head direction θ H of the remote user is changing at an angle within a certain range (for example, within a range of −45 degrees to 45 degrees) when viewed from the front of the display main body 131. Alternatively, the communication estimation unit 109 may select the mode M1 or the mode M2. Further, when the user head direction θ H of the remote user becomes an angle outside the above range, the communication estimation unit 109 may select the mode M3 or the mode M4. This is because it can be estimated that there is an object of interest in the side direction of the remote user when the user's head direction θ H of the remote user deviates from the angle within the above-mentioned fixed range.

[遠隔地の映像に対応した切り替え]
コミュニケーション推定部109が、自装置の動作モードの選択を行う方法としては、例えば、遠隔側装置から供給された映像データの映像に、遠隔側背景映像および遠隔側人物映像以外の物体が写っていた場合に対応したモードの切り替えが挙げられる。
[Switching corresponding to video from remote locations]
As a method for the communication estimation unit 109 to select the operation mode of its own device, for example, an object other than the remote background image and the remote person image is included in the video data image supplied from the remote device. The mode can be switched according to the case.

例えば、遠隔側利用者が、自装置利用者の興味の引くような物体を提示した場合には、自装置利用者はその物体(例えば、取引商品等)を様々な角度から見たいと推定できる。このとき、コミュニケーション推定部109は、自装置の動作モードをモードM3へと切り替えることで、自装置利用者は、その物体を様々な角度から身を乗り出しながらその物体を見ることができる。コミュニケーション推定部109が、遠隔側装置から供給された映像データに基づいて、遠隔地背景および遠隔人物像以外の物体を判定するためには、例えばパターンマッチングなどの物体追跡手法が考えられる。具体的には、遠隔側利用者が所定パターンが付された物体(例えば、2次元バーコード等が付された商品)を提示した場合、コミュニケーション推定部109は、遠隔側装置から供給された映像データの内容から、その所定のパターンを認識して、動作モードをモードM3へ切り替えるようにしても良い。   For example, when a remote user presents an object that attracts the interest of the user of the device, the user of the device can estimate that he or she wants to see the object (for example, a transaction product) from various angles. . At this time, the communication estimation unit 109 switches the operation mode of the own device to the mode M3, so that the user of the own device can see the object while leaning on the object from various angles. In order for the communication estimation unit 109 to determine an object other than the remote background and the remote person image based on the video data supplied from the remote device, for example, an object tracking method such as pattern matching is conceivable. Specifically, when the remote user presents an object with a predetermined pattern (for example, a product with a two-dimensional barcode), the communication estimation unit 109 displays the video supplied from the remote device. The operation mode may be switched to the mode M3 by recognizing the predetermined pattern from the data contents.

(E−2)第5の実施形態の動作
次に、以上のような構成を有する第5の実施形態のコミュニケーションシステム1Dの動作を説明する。
(E-2) Operation of Fifth Embodiment Next, the operation of the communication system 1D of the fifth embodiment having the above configuration will be described.

図14は、コミュニケーションシステム1を構成するコミュニケーション装置10D(コミュニケーション推定部109)の動作について示したフローチャートである。以下では、第1の利用者U1が利用するコミュニケーション装置10D−1(コミュニケーション推定部109)の動作を中心として説明する。   FIG. 14 is a flowchart showing the operation of the communication device 10D (communication estimation unit 109) constituting the communication system 1. Below, it demonstrates centering around operation | movement of communication apparatus 10D-1 (communication estimation part 109) which the 1st user U1 utilizes.

まず、コミュニケーション装置10D−1とコミュニケーション装置10D−2との間でビデオ通話が開始されたものとする(S500)。ここでは、初期状態として、コミュニケーション装置10D−1では、モードM1で動作するように設定されているものとする。   First, it is assumed that a video call is started between the communication device 10D-1 and the communication device 10D-2 (S500). Here, it is assumed that communication device 10D-1 is set to operate in mode M1 as an initial state.

そして、コミュニケーション装置10D−1において、コミュニケーション推定部109により、自装置の動作モードの変更の要否が判定される。そして、コミュニケーション推定部109は、動作モードの変更が必要と判定した場合には、変更後のモードに応じた動作をするように、自装置内の各構成要素を制御する(S501)。   Then, in the communication device 10D-1, the communication estimation unit 109 determines whether or not the operation mode of the own device needs to be changed. If the communication estimation unit 109 determines that the operation mode needs to be changed, the communication estimation unit 109 controls each component in the own device so as to operate according to the changed mode (S501).

ここでは、例として、コミュニケーション推定部109は、コミュニケーション時間に応じて、自装置の動作モード変更の要否を判定するものとする。その場合、コミュニケーション推定部109は、ビデオ通話が開始されたタイミング(上述のステップS500のタイミング)で、時間を計測するためのタイマ(図示せず)をスタートさせ、そのタイマの計測時間が一定時間以下の場合には、動作モード変更は不要と判定するようにしても良い。そして、コミュニケーション推定部109は、上述のタイマの計測時間が一定時間異常の場合に、自装置の動作モードをモードM2に変更すると判定するようにしても良い。なお、コミュニケーション推定部109が同時に行う判定処理(コミュニケーションの状況の推定処理)は、1種類であっても良いし、複数種類であってもよく、その種類や数は限定されないものである。   Here, as an example, it is assumed that the communication estimation unit 109 determines whether or not it is necessary to change the operation mode of the own device according to the communication time. In this case, the communication estimation unit 109 starts a timer (not shown) for measuring time at the timing when the video call is started (timing in step S500 described above), and the measurement time of the timer is a fixed time. In the following cases, it may be determined that the operation mode change is unnecessary. Then, the communication estimation unit 109 may determine that the operation mode of the device itself is changed to the mode M2 when the measurement time of the timer is abnormal for a certain time. Note that the determination processing (communication status estimation processing) performed simultaneously by the communication estimation unit 109 may be one type or a plurality of types, and the types and number thereof are not limited.

そして、コミュニケーション装置10D−1の制御部108にて、コミュニケーション装置10D−2とのコミュニケーションが継続しているか否か、すなわち、コミュニケーション装置10D−1、10D−2の間の回線がつながっているか否かが確認される(S502)。ステップS502にて、コミュニケーション装置10D−2とのコミュニケーションが継続していると判定された場合(回線が接続中の場合)には、制御部108は、上述のステップS501の処理に戻って、動作する。一方、ステップS502にて、コミュニケーション装置10D−2とのコミュニケーションが継続していると判定された場合(回線が切断された場合)には、制御部108は、上述の一連の処理を終了する(S503)。   Then, in control unit 108 of communication device 10D-1, whether or not communication with communication device 10D-2 is continued, that is, whether or not the line between communication devices 10D-1 and 10D-2 is connected. Is confirmed (S502). When it is determined in step S502 that communication with the communication device 10D-2 is continuing (when the line is connected), the control unit 108 returns to the processing in step S501 described above and operates. To do. On the other hand, when it is determined in step S502 that communication with the communication device 10D-2 is continuing (when the line is disconnected), the control unit 108 ends the above-described series of processing ( S503).

(E−3)第5の実施形態の効果
第5の実施形態によれば、以下のような効果を奏することができる。
(E-3) Effects of Fifth Embodiment According to the fifth embodiment, the following effects can be achieved.

コミュニケーション装置10D−1、10D−2では、利用者のディスプレイ本体131の動作と、ディスプレイ本体131の画面に表示される遠隔側の映像の加工・変形操作等の連動手法を、利用者間のコミュニケーションの状況に応じて動的に切り替えている。これにより、コミュニケーションシステム1Dでは、第1〜第4の実施形態と比較して、さらなる臨場感を利用者に提供することができる。   In the communication devices 10D-1 and 10D-2, communication between users is performed using an interlocking method such as an operation of the display main body 131 of the user and a processing / deformation operation of a remote image displayed on the screen of the display main body 131. It is dynamically switched according to the situation. Thereby, in communication system 1D, compared with the 1st-4th embodiment, a further realism can be provided to a user.

(F)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(F) Other Embodiments The present invention is not limited to the above-described embodiments, and may include modified embodiments as exemplified below.

(F−1)上記の各実施形態では、映像合成部が、遠隔側装置から供給された映像データの映像から、遠隔側背景映像と遠隔側人物映像とを分離する際に、映像処理(背景差分法)を用いる例について説明した。しかし、映像合成部の分離方法はこれに限定されず、例えば、深度センサを有したカメラなどを用いて利用者を撮像することで、計測された深度に応じて複数に分離された映像群を用いて、遠隔側背景映像と遠隔側人物映像とを分離するようにしても良い。例えば、映像合成部は、上述の深度センサを有したカメラに最も近距離の物体の映像が利用者の映像(遠隔側人物映像)であり、それよりも遠距離の物体の映像を背景の映像(遠隔側背景映像)であると認識するようにしても良い。 (F-1) In each of the embodiments described above, when the video composition unit separates the remote background video and the remote human video from the video data supplied from the remote device, the video processing (background The example using the difference method has been described. However, the separation method of the video composition unit is not limited to this. For example, by capturing a user using a camera or the like having a depth sensor, a group of videos separated according to the measured depth can be obtained. It may be used to separate the remote background video and the remote person video. For example, the video composition unit is a video of the object closest to the camera having the above-described depth sensor is the video of the user (remote person video), and the video of the object farther than that is the background video. You may make it recognize that it is (remote side background image | video).

(F−2)上記の各実施形態において、ディスプレイ本体は、ディスプレイ回転板により左右方向(水平方向)にのみ画面を回転できる構成として説明したが、上下方向(水平方向)に画面を回転できる構成としても良いし、左右方向及び上下方向の両方に画面を回転できる構成としても良い。なお、利用者を撮像するカメラについてもディスプレイ本体と同様に、左右方向及び又は上下方向に回転可能な構成としても良い。 (F-2) In each of the above embodiments, the display main body has been described as a configuration that can rotate the screen only in the left-right direction (horizontal direction) by the display rotating plate, but the configuration that can rotate the screen in the vertical direction (horizontal direction). Alternatively, the screen may be rotated in both the horizontal direction and the vertical direction. The camera that captures the user may be configured to be rotatable in the left-right direction and / or the up-down direction, similar to the display body.

(F−3)第5の実施形態では、コミュニケーション装置は、遠隔側装置から供給される利用者情報および、遠隔側装置から供給される音声信号から得られる発話音声を用いて、動作モードを切り替えるためのコミュニケーションの推定を行うことを説明した。しかし、コミュニケーション装置は、その他にも超音波センサなどに代表される距離センサや赤外線カメラなどで取得できる利用者の位置情報等から、統合的に利用者情報を構成してコミュニケーションの推定処理に適用するようにしても良いし、それを上記の実施形態に組み合わせて、コミュニケーションの推定処理の精度を向上させるようにしても良い。 (F-3) In the fifth embodiment, the communication device switches the operation mode using the user information supplied from the remote device and the speech voice obtained from the audio signal supplied from the remote device. Explained that to estimate the communication for. However, the communication device can also be used to estimate communication by constructing user information in an integrated manner from user position information that can be acquired by distance sensors such as ultrasonic sensors and infrared cameras. It may be possible to improve the accuracy of the communication estimation process by combining it with the above embodiment.

(F−4)上記の各実施形態におけるコミュニケーション装置が行う情報処理(利用者に対する入出力処理は除く)について、どの処理をどの装置が行うかは、上記の各実施形態の例に限定されないものである。例えば、利用者に対する入出力処理以外の情報処理については、第1又は第2の利用者が利用するコミュニケーション装置のいずれか一方でのみ行うようにしても良い。また、各コミュニケーション装置は、利用者に対する入出力処理のみを行い、その他の処理(利用者情報の取得や、映像の合成、ディスプレイ本体の画面の向きの制御等)を一括して、ASP(Application Service Provider)形式でサーバによる処理を行うようにしても良い。この場合、各コミュニケーション装置は、上述のサーバを介して、遠隔側装置と接続する構成となる。 (F-4) Which process performs which information processing (except for input / output processing for a user) performed by the communication device in each of the above embodiments is not limited to the example of each of the above embodiments It is. For example, information processing other than input / output processing for a user may be performed only by one of the communication devices used by the first or second user. Each communication device performs only input / output processing for the user, and collects other processing (acquisition of user information, video composition, control of the orientation of the screen of the display main body, etc.) collectively as ASP (Application). Processing by a server may be performed in a service provider format. In this case, each communication device is configured to connect to the remote device via the above-described server.

(F−5)上記の各実施形態では、2者間のコミュニケーションを提供するシステムとして説明したが、3者以上の利用者間のコミュニケーションに適用するようにしても良い。例えば、音声だけを3者会議とし、ディスプレイ本体の画面及び画面の向きを変更する対象として、いずれか1人の遠隔側利用者を選択(例えば、利用者の操作により選択するようにしても良い)して適用するようにしても良い。 (F-5) In each of the above embodiments, the system has been described as a system that provides communication between two parties. However, the present invention may be applied to communication between three or more users. For example, only a voice may be a three-party conference, and any one remote user may be selected (for example, selected by the user's operation) as a target for changing the screen of the display body and the screen orientation. ) May be applied.

(F−6)第3及び第4の実施形態では、映像合成部は、遠隔側背景映像について特に加工を行っていないが、第1の実施形態と同様に、ディスプレイ本体の画面の向きに応じた加工を施すようにしても良い。また、第1及び第2の実施形態では、映像合成部は、遠隔側背景映像について射影変換等の加工をおこなっているが、特に加工せずに、ディスプレイ本体の画面に表示するようにしても良い。 (F-6) In the third and fourth embodiments, the video composition unit does not particularly process the remote side background video, but according to the screen orientation of the display main body, as in the first embodiment. You may make it process it. In the first and second embodiments, the video composition unit performs projective transformation and the like on the remote side background video, but it may be displayed on the screen of the display main body without any particular processing. good.

1…コミュニケーションシステム、10、10−1、10−2…コミュニケーション装置、N…ネットワーク、11…コミュニケーション装置本体、12…カメラ、121…カメラ本体、122…カメラ回転板、13…ディスプレイ、131…ディスプレイ本体、132…ディスプレイ回転板、101…映像取得部、102…映像処理部、103…情報送信部、104…情報受信部、105…映像合成部、106…映像表示部、107…回転制御部、108…制御部。   DESCRIPTION OF SYMBOLS 1 ... Communication system 10, 10-1, 10-2 ... Communication apparatus, N ... Network, 11 ... Communication apparatus main body, 12 ... Camera, 121 ... Camera main body, 122 ... Camera rotating plate, 13 ... Display, 131 ... Display Main unit 132 ... Display rotation plate 101 ... Video acquisition unit 102 ... Video processing unit 103 ... Information transmission unit 104 ... Information reception unit 105 ... Video composition unit 106 106 Video display unit 107 ... Rotation control unit 108: Control unit.

Claims (5)

第1の利用者と第2の利用者との間のコミュニケーションを可能とするコミュニケーションシステムにおいて、
1又は複数のカメラを用いて、上記第2の利用者を撮像した映像の映像データを保持する映像データ保持手段と、
上記映像データ保持手段が保持した映像データに基づく映像を、上記第1の利用者に提示するために画面表示するディスプレイと、上記ディスプレイの画面方向を制御に応じた方向に向ける画面方向制御機構とを備える映像表示手段と、
上記第1の利用者又は上記第2の利用者の身体的位置情報を取得する身体的位置情報取得手段と、
上記第1の利用者又は上記第2の利用者の身体的位置情報に応じて、上記ディスプレイの新たな画面方向を決定し、上記ディスプレイの画面方向が決定した画面方向となるように、上記画面方向制御機構を制御する画面方向制御手段と
を有することを特徴とするコミュニケーションシステム。
In a communication system that enables communication between a first user and a second user,
Video data holding means for holding video data of a video image of the second user using one or a plurality of cameras;
A display for displaying a video based on the video data held by the video data holding means for presenting to the first user, and a screen direction control mechanism for directing the screen direction of the display in a direction according to the control; Video display means comprising:
Physical position information acquisition means for acquiring physical position information of the first user or the second user;
In accordance with the physical position information of the first user or the second user, a new screen direction of the display is determined, and the screen direction of the display becomes the determined screen direction. And a screen direction control means for controlling the direction control mechanism.
上記ディスプレイの画面方向に応じて、上記映像データ保持手段が保持した映像データの映像を加工する映像データ加工手段をさらに有し、
上記映像表示手段は、上記映像データ加工手段が加工した映像データの映像を、上記ディスプレイの画面に表示する
ことを特徴とする請求項1に記載のコミュニケーションシステム。
In accordance with the screen direction of the display, it further comprises video data processing means for processing the video data held by the video data holding means,
The communication system according to claim 1, wherein the video display means displays the video of the video data processed by the video data processing means on the screen of the display.
上記映像データ加工手段は、上記ディスプレイの画面方向に応じて、上記映像データ保持手段が保持した映像データの映像の射影変換を行うことを特徴とする請求項2に記載のコミュニケーションシステム。   3. The communication system according to claim 2, wherein the video data processing unit performs projective conversion of video of video data held by the video data holding unit according to a screen direction of the display. 映像データ保持手段は、それぞれ異なる方向から、上記第2の利用者を撮像する複数のカメラを備えており、それぞれの上記カメラが撮像した映像の映像データを保持し、
上記第1の利用者又は上記第2の利用者の身体的位置情報に応じて、上記カメラが撮像した映像データのうち、いずれかの映像データを選択する映像データ選択手段をさらに備え、
上記映像表示手段は、上記映像データ選択手段が選択した映像データに基づく映像を、上記ディスプレイの画面に表示させる
ことを特徴とする請求項1に記載のコミュニケーションシステム。
The video data holding means includes a plurality of cameras that capture images of the second user from different directions, stores video data of images captured by the respective cameras,
According to the physical position information of the first user or the second user, further comprising video data selection means for selecting any video data among the video data captured by the camera,
The communication system according to claim 1, wherein the video display means displays a video based on the video data selected by the video data selection means on the screen of the display.
第1の利用者と第2の利用者との間のコミュニケーションを可能とするコミュニケーションシステムを構成する、上記第1の利用者が利用する第1のコミュニケーション装置において、
上記第2の利用者が利用する第2のコミュニケーション装置から、1又は複数のカメラを用いて、上記第2の利用者を撮像した映像データを取得する映像データ取得手段と、
上記映像データ取得手段が取得した映像データの映像を、上記第1の利用者に提示するために画面表示するディスプレイと、上記ディスプレイの画面方向を制御に応じた方向に向ける画面方向制御機構とを備える映像表示手段と、
上記第1の利用者又は上記第2の利用者の身体的位置情報を取得する身体的位置情報取得手段と、
上記第1の利用者又は上記第2の利用者の身体的位置情報に応じて、上記ディスプレイの新たな画面方向を決定し、上記ディスプレイの画面方向が決定した画面方向となるように、上記画面方向制御機構を制御する画面方向制御手段と
を有することを特徴とするコミュニケーション装置。
In the first communication device used by the first user, which constitutes a communication system that enables communication between the first user and the second user,
Video data acquisition means for acquiring video data of the second user using one or a plurality of cameras from the second communication device used by the second user;
A display for displaying the video of the video data acquired by the video data acquisition means to be presented to the first user, and a screen direction control mechanism for directing the screen direction of the display in a direction according to the control; Video display means comprising;
Physical position information acquisition means for acquiring physical position information of the first user or the second user;
In accordance with the physical position information of the first user or the second user, a new screen direction of the display is determined, and the screen direction of the display becomes the determined screen direction. And a screen direction control means for controlling the direction control mechanism.
JP2011139821A 2011-06-23 2011-06-23 Communication system and communication device Expired - Fee Related JP5834533B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011139821A JP5834533B2 (en) 2011-06-23 2011-06-23 Communication system and communication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011139821A JP5834533B2 (en) 2011-06-23 2011-06-23 Communication system and communication device

Publications (2)

Publication Number Publication Date
JP2013009111A true JP2013009111A (en) 2013-01-10
JP5834533B2 JP5834533B2 (en) 2015-12-24

Family

ID=47676116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011139821A Expired - Fee Related JP5834533B2 (en) 2011-06-23 2011-06-23 Communication system and communication device

Country Status (1)

Country Link
JP (1) JP5834533B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115328A (en) * 2014-12-17 2016-06-23 富士ゼロックス株式会社 Method for calculation execution, calculation processing system, and program
JP2017098592A (en) * 2015-11-18 2017-06-01 富士通株式会社 Communication assisting system, server device and program
JP2019533324A (en) * 2016-09-09 2019-11-14 グーグル エルエルシー 3D telepresence system
JP2020202499A (en) * 2019-06-11 2020-12-17 国立大学法人静岡大学 Image observation system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141317A (en) * 1992-10-28 1994-05-20 Nippon Telegr & Teleph Corp <Ntt> Video conference system
JPH09191452A (en) * 1996-01-09 1997-07-22 Konica Corp Video telephone system
JPH09200715A (en) * 1996-01-19 1997-07-31 Canon Inc Equipment, method and system for communication
JP2001136501A (en) * 1999-11-10 2001-05-18 Nec Corp Sight line match video conference apparatus
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program
JP2007166529A (en) * 2005-12-16 2007-06-28 Fujifilm Corp Video telephone system
JP2011040962A (en) * 2009-08-10 2011-02-24 Victor Co Of Japan Ltd Communication apparatus, system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141317A (en) * 1992-10-28 1994-05-20 Nippon Telegr & Teleph Corp <Ntt> Video conference system
JPH09191452A (en) * 1996-01-09 1997-07-22 Konica Corp Video telephone system
JPH09200715A (en) * 1996-01-19 1997-07-31 Canon Inc Equipment, method and system for communication
JP2001136501A (en) * 1999-11-10 2001-05-18 Nec Corp Sight line match video conference apparatus
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program
JP2007166529A (en) * 2005-12-16 2007-06-28 Fujifilm Corp Video telephone system
JP2011040962A (en) * 2009-08-10 2011-02-24 Victor Co Of Japan Ltd Communication apparatus, system and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016115328A (en) * 2014-12-17 2016-06-23 富士ゼロックス株式会社 Method for calculation execution, calculation processing system, and program
JP2017098592A (en) * 2015-11-18 2017-06-01 富士通株式会社 Communication assisting system, server device and program
JP2019533324A (en) * 2016-09-09 2019-11-14 グーグル エルエルシー 3D telepresence system
JP2020202499A (en) * 2019-06-11 2020-12-17 国立大学法人静岡大学 Image observation system
JP7356697B2 (en) 2019-06-11 2023-10-05 国立大学法人静岡大学 Image observation system

Also Published As

Publication number Publication date
JP5834533B2 (en) 2015-12-24

Similar Documents

Publication Publication Date Title
AU2013236158B2 (en) Teleconference system and teleconference terminal
KR101785458B1 (en) Camera module and mobile terminal having the same
US10148909B2 (en) Immersive telepresence anywhere
US9967518B2 (en) Video conference system
JP6551155B2 (en) Communication system, communication apparatus, communication method and program
US11006098B2 (en) Information processing apparatus, information processing system, and information processing method
JP5834533B2 (en) Communication system and communication device
EP2894608A1 (en) Display device, display method, and program
JP2014171157A (en) Communication device and communication method
EP3465631B1 (en) Capturing and rendering information involving a virtual environment
US20130278781A1 (en) Image communication apparatus, image communication server and image processing method for image communication
JP2009033298A (en) Communication system and communication terminal
JP2011097447A (en) Communication system
CN111163280B (en) Asymmetric video conference system and method thereof
CN113573120B (en) Audio processing method, electronic device, chip system and storage medium
US9131109B2 (en) Information processing device, display control system, and computer program product
JP2014050018A (en) Information processing device and video conference system and program
JP2012190230A (en) Display device, display method, and program
KR101252762B1 (en) Apparatus and method for image synthesis in image conference terminal
JP2010074602A (en) Telephone system
CN111630484A (en) Virtual window for teleconferencing
JP6500419B2 (en) Terminal device, communication system and program
JP2015159461A (en) Communication device, communication system, image segmentation method, and program
US20190098225A1 (en) Imaging Processing Device, Imaging Processing Method And Storage Medium
JP2010028299A (en) Conference photographed image processing method, conference device, and the like

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150309

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151019

R150 Certificate of patent or registration of utility model

Ref document number: 5834533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees