JP2012114511A - Conference system - Google Patents
Conference system Download PDFInfo
- Publication number
- JP2012114511A JP2012114511A JP2010259425A JP2010259425A JP2012114511A JP 2012114511 A JP2012114511 A JP 2012114511A JP 2010259425 A JP2010259425 A JP 2010259425A JP 2010259425 A JP2010259425 A JP 2010259425A JP 2012114511 A JP2012114511 A JP 2012114511A
- Authority
- JP
- Japan
- Prior art keywords
- participant
- image data
- conference room
- conference
- display area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
この発明は、会議システムに関し、特に地理的に離れた複数の会議室を用いて開催される会議に適用可能な会議システムに関する。 The present invention relates to a conference system, and more particularly to a conference system applicable to a conference held using a plurality of geographically separated conference rooms.
地理的に離れた複数の会議室で開催されるテレビ会議システムが知られている。しかしながら、テレビ会議システムにおいては、異なる場所の様子は、その場所をカメラで撮影した映像でしか知ることができずないため、1つの場所で開催される会議に比較して、臨場感に欠けるといった問題がある。1つの場所で開催される会議に近づけるために、多数の対話者同士の視線を一致させるようにしたテレビ会議システムが特開平6−253303号公報に記載されている。このテレビ会議システムは、複数の撮影装置Xij(i=a,b,c、j=R,C,L)によって、同一対話者Xa,Xb,Xcを異なる場所から撮影することにより、異なる角度から撮影した複数の映像を得る。これらの映像を遠隔地において投射装置PXijにより表示スクリーンY1,Y2,Y3の一つに投射表示するとき、光の入射角度によって散乱度が異なるスクリーンを用い、投射装置PXijの表示スクリーンY1,Y2,Y3への投射角度を撮影の方角に対応させ、かつ散乱度が大きい角度にして投射表示する。 A video conference system that is held in a plurality of geographically separated conference rooms is known. However, in a video conference system, the situation of a different place can only be known from the video taken by the camera, so it lacks a sense of reality compared to a meeting held in one place. There's a problem. Japanese Patent Laid-Open No. 6-253303 discloses a video conference system in which the lines of sight of a large number of interlocutors are made to coincide with each other in order to approach a conference held at one place. In this video conference system, a plurality of photographing devices Xij (i = a, b, c, j = R, C, L) are used to photograph the same conversation person Xa, Xb, Xc from different locations, and from different angles. Get multiple shots. When these images are projected and displayed on one of the display screens Y1, Y2, Y3 by the projection device PXij in a remote place, a screen having a different degree of scattering depending on the incident angle of light is used, and the display screens Y1, Y2, Y2 of the projection device PXij are used. The projection angle to Y3 is made to correspond to the direction of shooting, and is projected and displayed at an angle with a high degree of scattering.
このため、従来の会議システムにおいては、例えば、発話者が、ある一方向の参加者と会話する場合には、別の方向の参加者は、発話者と視線が合うことがない。また、発話者が手元の資料などを読みながら発話する場合、参加者と発話者の視線が合うことがない。このため、発話者と視線の会わない参加者は、会議に参加しているという意識が薄れてしまうといった問題がある。
この発明は上述した問題を解決するためになされたもので、この発明の目的の1つは、発表者から参加者にノンバーバル情報が伝達されていないときに、ノンバーバル情報を伝達することが可能な会議システムを提供することである。 The present invention has been made to solve the above-described problems, and one object of the present invention is to transmit non-verbal information when non-verbal information is not transmitted from a presenter to a participant. To provide a conference system.
この発明の他の目的は、第1会議室の参加者から第2または第3会議室の参加者のいずれかにノンバーバル情報が伝達されていないときに、ノンバーバル情報を伝達することが可能な会議システムを提供することである。 Another object of the present invention is a conference capable of transmitting non-verbal information when non-verbal information is not transmitted from a participant in the first conference room to any of the participants in the second or third conference room. Is to provide a system.
この発明は上述した問題を解決するためになされたもので、この発明のある局面によれば、会議システムは、地理的に離れた複数の会議室をそれぞれ撮像した複数の画像を用いて仮想的な会議室を生成する会議システムであって、複数の会議室それぞれに、画像を表示する表示手段と、表示手段側から該会議室に存在する参加者に向かう被写体方向で参加者を撮像する撮像手段と、表示手段および撮像手段を制御する制御手段と、が配置され、複数の会議室は、発表者が参加する第1会議室と、参加者が参加する少なくとも1つの第2会議室とを含み、第1会議室に配置される制御手段は、撮像手段が出力する画像データに基づいて、発表者の視線方向を検出する視線方向検出手段と、視線検出手段により発表者の視線が表示手段を向く方向が検出されている間に、撮像手段が出力する画像データを記憶する視線画像記憶手段と、撮像手段が出力する画像データおよび記憶手段に記憶された画像データのうちいずれか一方を選択する選択手段と、選択手段により選択された画像データを含む映像データを、少なくとも1つの第2会議室それぞれに配置された制御手段に送信する映像データ送信手段と、を備え、選択手段は、撮像手段が出力する画像データを選択しているときに、視線検出手段により検出された視線方向が表示手段を向く方向でない状態が所定時間継続すると、記憶手段に記憶された画像データを選択し、第2会議室に配置される制御手段は、第1会議室に配置された制御手段から映像データを受信する映像データ受信手段と、映像データ受信手段により受信される映像データに含まれる画像データの画像を表示手段に表示させる表示制御手段と、を備える。 The present invention has been made to solve the above-described problems. According to one aspect of the present invention, a conference system uses a plurality of images obtained by imaging a plurality of geographically separated conference rooms, respectively. A conference system for generating a simple conference room, wherein each of a plurality of conference rooms has display means for displaying an image, and imaging for imaging a participant in a subject direction toward the participant existing in the conference room from the display means side And a control means for controlling the display means and the imaging means. The plurality of conference rooms include a first conference room in which the presenter participates and at least one second conference room in which the participants participate. A control unit disposed in the first conference room includes: a gaze direction detection unit that detects a gaze direction of the presenter based on image data output from the imaging unit; and a gaze direction of the presenter is displayed by the gaze detection unit. Direction A line-of-sight image storage means for storing image data output by the imaging means during detection, and a selection means for selecting one of the image data output by the imaging means and the image data stored in the storage means, Video data transmission means for transmitting video data including the image data selected by the selection means to a control means arranged in each of at least one second conference room, and the selection means outputs the imaging means When the image data is selected, if the state in which the line-of-sight direction detected by the line-of-sight detection means is not in the direction facing the display means continues for a predetermined time, the image data stored in the storage means is selected and the second meeting room is selected. The arranged control means is received by the video data receiving means for receiving video data from the control means arranged in the first conference room, and the video data receiving means. Comprising display control means for displaying the image of the image data included in the image data on the display unit.
この局面に従えば、発表者が参加する第1会議室に配置される制御手段によって、撮像手段が出力する画像データに基づいて、発表者の視線方向が検出され、発表者の視線が表示手段を向く方向が検出されている間に、撮像手段が出力する画像データが記憶され、撮像手段が出力する画像データおよび記憶手段に記憶された画像データのうちいずれか一方が選択され、選択された画像データを含む映像データが、第2会議室に配置された制御手段に送信される。また、撮像手段が出力する画像データを選択しているときに、検出された視線方向が表示手段を向く方向でない状態が所定時間継続すると、記憶手段に記憶された画像データが選択される。第1会議室の参加者の視線方向が表示手段を向いているときは、第2会議室の参加者は第1会議室の参加者と視線が合うが、第1会議室の参加者の視線方向が表示手段を向いていないときはるときは、第2会議室の参加者は第1会議室の参加者と視線が合わない。第2会議室の参加者は第1会議室の参加者と視線が合わない状態が所定時間継続すると、第1会議室の参加者の視線方向が表示手段を向いているときに記憶された画像データが選択されるので、第2会議室の参加者は第1会議室の参加者と視線が合う画像を見ることになる。このため、発表者から参加者にノンバーバル情報が伝達されていないときに、ノンバーバル情報を伝達することが可能な会議システムを提供することができる。 According to this aspect, the gaze direction of the presenter is detected based on the image data output by the imaging means by the control means arranged in the first conference room where the presenter participates, and the gaze of the presenter is displayed. The image data output by the imaging unit is stored while the direction facing the camera is detected, and one of the image data output by the imaging unit and the image data stored in the storage unit is selected and selected. Video data including image data is transmitted to the control means arranged in the second conference room. In addition, when the image data output by the imaging unit is selected and the state where the detected line-of-sight direction does not face the display unit continues for a predetermined time, the image data stored in the storage unit is selected. When the line-of-sight direction of the participant in the first meeting room is facing the display means, the participant in the second meeting room is aligned with the participant in the first meeting room, but the line of sight of the participant in the first meeting room When the direction is not facing the display means, the participant in the second conference room does not line up with the participant in the first conference room. An image stored when the line-of-sight direction of the participant in the first conference room is facing the display means when the participant in the second conference room is in a state in which the line of sight does not match the participant in the first conference room for a predetermined time Since the data is selected, the participant in the second meeting room sees an image in line of sight with the participant in the first meeting room. Therefore, it is possible to provide a conference system that can transmit non-verbal information when non-verbal information is not transmitted from a presenter to a participant.
好ましくは、選択手段は、視線検出手段により検出された視線方向が表示手段を向く方向の場合は、撮像手段が出力する画像データを選択する。 Preferably, the selection unit selects the image data output by the imaging unit when the line-of-sight direction detected by the line-of-sight detection unit is a direction facing the display unit.
この発明の他の局面によれば、会議システムは、地理的に離れた3つの会議室をそれぞれ撮像した複数の画像を用いて仮想的な会議室を生成する会議システムであって、3つの会議室それぞれに、2つの表示領域を含む表示手段と、表示手段側から該会議室に参加する参加者に向かう第1の方向で参加者を撮像する第1撮像手段と、第1の方向と交わる第2の方向で参加者を撮像する第2撮像手段と、第2の方向と逆の第3の方向で参加者を撮像する第3撮像手段と、表示手段および第1〜第3撮像手段を制御する制御手段と、が配置され、制御手段は、第1撮像手段が出力する第1画像データに基づいて、参加者の視線方向が第1表示領域に向かう第1視線方向または第2表示領域に向かう第2視線方向であるかを検出する視線方向検出手段と、視線方向検出手段による検出結果に基づいて、参加者が発話する相手を判定する発話相手判定手段と、第1〜第3撮像手段がそれぞれ出力する第1〜第3画像データのうちから1つの第1選択画像データを選択する第1選択手段と、第1〜第3撮像手段がそれぞれ出力する第1〜第3画像データのうちから1つの第2選択画像データを選択する第2選択手段と、第1選択画像データを含む映像データと、発話相手判定手段により判定された発話相手を示す第1発話相手情報と、を他の2つの会議室のうち一方の会議室に配置された制御手段に送信する第1会議情報送信手段と、第2選択画像データを含む映像データと第1発話相手情報と、を他の2つの会議室のうち一方の会議室とは異なる他方の会議室に配置された制御手段に送信する第2会議情報送信手段と、一方の会議室に配置された制御手段から映像データと一方の会議室の参加者が発話する相手を示す第2発話相手情報とを受信する第1会議情報受信手段と、他方の会議室に配置された制御手段から映像データと他方の会議室の参加者が発話する相手を示す第3発話相手情報とを受信する第2会議情報受信手段と、一方の会議室に配置された制御手段から受信される映像データに含まれる画像データを第1表示領域に表示し、他方の会議室に配置された制御手段から受信される映像データに含まれる画像データを第2表示領域に表示させるように表示手段を制御する表示制御手段と、第1〜第3発話相手情報に基づいて、参加者が、他の2つの会議室のいずれの参加者と会話しているかを判断する会話相手判断手段と、を備え、発話相手判定手段は、視線方向検出手段により検出された視線方向が、第1表示領域に向かう場合に一方の会議室の参加者に発話していると判定し、視線方向検出手段により検出された視線方向が、第2表示領域に向かう場合に他方の会議室の参加者に発話していると判定し、第1選択手段は、会話相手判断手段により一方の会議室の参加者と会話していると判断された場合に、第1画像データを選択し、会話相手判断手段により他方の会議室の参加者と会話していると判断された場合に、第2画像データおよび第3画像データのいずれか一方を選択し、他方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、第1画像データを第2の所定時間選択し、第2選択手段は、会話相手判断手段により他方の会議室の参加者と会話していると判断された場合に、第1画像データを選択し、会話相手判断手段により一方の会議室の参加者と会話していると判断された場合に、第2画像データおよび第3画像データのいずれか一方を選択し、一方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、第1画像データを第2の所定時間選択する。 According to another aspect of the present invention, a conference system is a conference system that generates a virtual conference room using a plurality of images obtained by imaging three conference rooms that are geographically separated from each other. Each room intersects the first direction with display means including two display areas, first imaging means for imaging the participant in a first direction from the display means side toward the participant participating in the conference room, and the first direction. A second imaging means for imaging the participant in the second direction; a third imaging means for imaging the participant in a third direction opposite to the second direction; a display means; and first to third imaging means. And a control means for controlling, based on the first image data output by the first imaging means, the control means controls the first viewing direction or the second display area in which the viewing direction of the participant is directed to the first display area. Gaze direction detection hand for detecting whether the second gaze direction is toward Based on the detection result by the line-of-sight direction detection means, one of the utterance partner determination means for determining the partner uttered by the participant and the first to third image data output by the first to third imaging means, respectively. First selection means for selecting one first selection image data, and second selection means for selecting one second selection image data from among first to third image data output from the first to third imaging means, respectively. The video data including the first selected image data, and the first utterance partner information indicating the utterance partner determined by the utterance partner determination means, are arranged in one of the other two conference rooms. The first meeting information transmitting means for transmitting to the means, the video data including the second selected image data, and the first utterance partner information are sent to the other meeting room different from one of the other two meeting rooms. Send to arranged control means First conference information receiving means for receiving video data and second utterance partner information indicating a partner uttered by a participant in one conference room from the second conference information transmitting means and the control means arranged in one conference room And second conference information receiving means for receiving video data and third utterance partner information indicating a partner uttered by a participant in the other conference room from the control means arranged in the other conference room, and one conference room The image data included in the video data received from the control means disposed in the first display area is displayed in the first display area, and the image data included in the video data received from the control means disposed in the other conference room is displayed in the second display area. Based on the display control means for controlling the display means to display in the display area, and the first to third utterance partner information, which participant in the other two conference rooms is talking to Conversation partner judgment means to judge And the speech partner determination means determines that the user is speaking to a participant in one conference room when the gaze direction detected by the gaze direction detection means goes to the first display area, and the gaze direction detection means When the direction of the line of sight detected by (2) is directed to the second display area, it is determined that the participant in the other conference room is speaking, and the first selection means is a participant in one conference room by the conversation partner determination means. The first image data is selected when it is determined that the user is talking with the second image data, and the second image data and the second image data are selected when the conversation partner determining unit determines that the user is talking with the participant in the other conference room. When one of the three image data is selected and the state determined to be speaking with a participant in the other conference room continues for the first predetermined time, the first image data is selected for the second predetermined time, The second selecting means is the other by the conversation partner judging means When it is determined that the user is talking with a conference room participant, the first image data is selected, and when the conversation partner determining means determines that the user is talking with a participant of one conference room, When either one of the second image data and the third image data is selected and a state in which it is determined that the user is talking with a participant in one conference room continues for the first predetermined time, the first image data is changed to the second image data. Select a predetermined time.
この局面に従えば、参加者が一方の会議室の参加者と会話していると判断された場合に、参加者に向かう第1の方向で参加者を撮像した第1画像データが選択され、他方の会議室の参加者と会話していると判断された場合に、第1の方向と交わる第2の方向または第2の方向と逆の第3の方向で参加者を撮像した第2画像データおよび第3画像データのいずれか一方が選択され、他方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、第1画像データが第2の所定時間選択され、選択された画像データが一方の会議室に配置された制御手段に送信される。また、参加者が他方の会議室の参加者と会話していると判断された場合に、参加者に向かう第1の方向で参加者を撮像した第1画像データが選択され、一方の会議室の参加者と会話していると判断された場合に、第1の方向と交わる第2の方向または第2の方向と逆の第3の方向で参加者を撮像した第2画像データおよび第3画像データのいずれか一方が選択され、一方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、第1画像データが第2の所定時間選択され、選択された画像データが他方の会議室に配置された制御手段に送信される。このため、参加者に向かう第1の方向で参加者を撮像した第1画像データを見る第2または第3会議室の参加者は、第1会議室の参加者と視線が合うが、第2または第3画像データを見る第2または第3会議室の参加者は、第1会議室の参加者と視線が合わない。他方の会議室の参加者と会話していると判断される状態では、一方の会議室の参加者は第1会議室の参加者と視線が合わないが、第1の所定時間継続すると、第1画像データが第2の所定時間一方の会議室に送信されるので、一方の会議室の参加者は第1会議室の参加者と第2の所定時間視線が合う。また、一方の会議室の参加者と会話していると判断される状態では、他方の会議室の参加者は第1会議室の参加者と視線が合わないが、第1の所定時間継続すると、第1画像データが第2の所定時間他方の会議室に送信されるので、他方の会議室の参加者は第1会議室の参加者と第2の所定時間視線が合う。このため、第1会議室の参加者から第2または第3会議室の参加者のいずれかにノンバーバル情報が伝達されていないときに、ノンバーバル情報を伝達することが可能な会議システムを提供することができる。 According to this aspect, when it is determined that the participant is talking to the participant in one of the conference rooms, the first image data obtained by imaging the participant in the first direction toward the participant is selected. A second image in which the participant is imaged in a second direction that intersects the first direction or a third direction opposite to the second direction when it is determined that the user is talking to the participant in the other conference room When one of the data and the third image data is selected and a state in which it is determined that the user is talking with a participant in the other conference room continues for the first predetermined time, the first image data is changed to the second predetermined time. The selected image data is transmitted to the control means arranged in one conference room. In addition, when it is determined that the participant is talking with the participant in the other conference room, the first image data obtained by imaging the participant in the first direction toward the participant is selected, and one conference room is selected. Second image data obtained by imaging the participant in a second direction intersecting with the first direction or a third direction opposite to the second direction and third When one of the image data is selected and a state in which it is determined that the user is talking with a participant in one conference room continues for the first predetermined time, the first image data is selected for the second predetermined time and selected. The processed image data is transmitted to the control means arranged in the other conference room. Therefore, a participant in the second or third conference room who views the first image data obtained by imaging the participant in the first direction toward the participant is in line with the participant in the first conference room. Or the participant of the 2nd or 3rd meeting room which sees 3rd image data does not match a line of sight with the participant of the 1st meeting room. In a state where it is determined that the other conference room is in conversation with the participant in the other conference room, the participant in one conference room does not line up with the participant in the first conference room. Since one image data is transmitted to one conference room for the second predetermined time, the participant in one conference room is aligned with the participant in the first conference room for the second predetermined time. In addition, in a state where it is determined that the user is talking to a participant in one conference room, the participant in the other conference room does not line up with the participant in the first conference room, but continues for the first predetermined time. Since the first image data is transmitted to the other conference room for the second predetermined time, the participants in the other conference room are aligned with the participants in the first conference room for the second predetermined time. Therefore, a conference system capable of transmitting non-verbal information when non-verbal information is not transmitted from a participant in the first conference room to any of the participants in the second or third conference room is provided. Can do.
好ましくは、第1撮像手段は、参加者を正面から撮影する画角となるように配置され、第2撮像手段は、参加者の右側面から撮影する画角となるように配置され、第3撮像手段は、参加者の左側面から撮影する画角となるように配置され、第1表示領域と第2表示領域とは左右に並んで配置され、制御手段は、表示制御手段が一方の会議室に配置された制御手段から受信される映像データに含まれる画像データを第1表示領域に表示していることを示す表示領域情報を一方の会議室に配置された制御手段に送信する第1表示領域情報送信手段と、表示制御手段が他方の会議室に配置された制御手段から受信される映像データに含まれる画像データを第2表示領域に表示していることを示す表示領域情報を他方の会議室に配置された制御手段に送信する第2表示領域情報送信手段と、を備え、第1選択手段は、会話相手判断手段により他方の会議室の参加者と会話していると判断された場合に、一方の会議室に配置された制御手段から受信される表示領域情報が第1表示領域を示す場合は第2画像データを選択し、一方の会議室に配置された制御手段から受信される表示領域情報が第2表示領域を示す場合は第3画像データを選択し、第2選択手段は、会話相手判断手段により一方の会議室の参加者と会話していると判断された場合に、他方の会議室に配置された制御手段から受信される表示領域情報が第1表示領域を示す場合は第2画像データを選択し、一方の会議室に配置された制御手段から受信される表示領域情報が第2表示領域を示す場合は第3画像データを選択する。 Preferably, the first image pickup means is arranged to have an angle of view for photographing the participant from the front, and the second image pickup means is arranged to obtain an angle of view for photographing from the right side of the participant. The imaging means is arranged so as to have an angle of view taken from the left side of the participant, the first display area and the second display area are arranged side by side, and the control means is configured such that the display control means is one of the conferences. A display area information indicating that image data included in video data received from the control means arranged in the room is displayed in the first display area is transmitted to the control means arranged in one conference room. Display area information transmitting means and display area information indicating that the display control means is displaying image data included in video data received from the control means arranged in the other conference room in the second display area. Control means located in the conference room Second display area information transmitting means for communicating, and the first selecting means is arranged in one conference room when it is determined by the conversation partner judging means that it is talking with a participant in the other conference room. When the display area information received from the control means displayed indicates the first display area, the second image data is selected, and the display area information received from the control means arranged in one conference room is the second display area. Is selected, the third image data is selected, and the second selection means is arranged in the other conference room when it is determined by the conversation partner determination means that it is talking with a participant in one conference room. When the display area information received from the control means indicates the first display area, the second image data is selected, and the display area information received from the control means arranged in one conference room indicates the second display area. In this case, the third image data is selected.
この局面に従えば、他方の会議室の参加者と会話していると判断された場合に、一方の会議室に配置された制御手段から受信される表示領域情報が第1表示領域を示す場合は第2画像データが選択され、一方の会議室に配置された制御手段から受信される表示領域情報が第2表示領域を示す場合は第3画像データが選択され、選択された第1選択画像データが一方の会議室に配置された制御手段に送信される。また、一方の会議室の参加者と会話していると判断された場合に、他方の会議室に配置された制御手段から受信される表示領域情報が第1表示領域を示す場合は第2画像データが選択され、一方の会議室に配置された制御手段から受信される表示領域情報が第2表示領域を示す場合は第3画像データが選択され、選択された第2選択画像データが他方の会議室に配置された制御手段に送信される。このため、3つの会議室それぞれの参加者は、他の2つの会議室の参加者が会話している間は、他の2つの会議室の二人の参加者が向かい合って会話する画像を見ることができる。 According to this aspect, when it is determined that the user is talking to a participant in the other conference room, the display area information received from the control means arranged in the one conference room indicates the first display area The second image data is selected, and when the display area information received from the control means arranged in one conference room indicates the second display area, the third image data is selected, and the selected first selected image Data is transmitted to the control means arranged in one conference room. Further, when it is determined that the user is talking to a participant in one conference room, the second image is displayed when the display area information received from the control means arranged in the other conference room indicates the first display area. When the data is selected and the display area information received from the control means arranged in one conference room indicates the second display area, the third image data is selected, and the selected second selected image data is the other It is transmitted to the control means arranged in the conference room. For this reason, participants in each of the three conference rooms see images where the two participants in the other two conference rooms face each other while the participants in the other two conference rooms are talking. be able to.
好ましくは、3つの会議室それぞれは、さらに、音声を集音するマイクロホンが配置され、制御手段は、マイクロホンをさらに制御し、マイクロホンが出力する音データに基づいて、参加者が発話しているか否かを判断する発話検出手段を、さらに備え、第1選択手段は、第2画像データおよび第3画像データのいずれか一方を選択しているとき、他方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、発話検出手段により参加者が発話していると判断されることを条件に、第1画像データを第2の所定時間選択し、第2選択手段は、第2画像データおよび第3画像データのいずれか一方を選択しているとき、一方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、発話検出手段により参加者が発話していると判断されることを条件に、第1画像データを第2の所定時間選択する。 Preferably, each of the three conference rooms is further provided with a microphone for collecting sound, and the control means further controls the microphone, and whether or not the participant speaks based on sound data output from the microphone. Utterance detecting means for determining whether or not the first selecting means is in conversation with a participant in the other conference room when either one of the second image data and the third image data is selected. When the state determined to be continued for the first predetermined time, the first image data is selected for the second predetermined time on the condition that the participant is determined to be speaking by the speech detection means, and the second selection is performed. The means is configured such that when either one of the second image data and the third image data is selected and the state in which it is determined that the user is speaking with a participant in one of the conference rooms continues for the first predetermined time, Detection means On condition that it is determined that more participants is speaking, selects the first image data a second predetermined time.
この局面に従えば、第2会議室に配置された制御手段に送信する第1選択画像データとして、第2画像データおよび第3画像データのいずれか一方を選択しているとき、他方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、第1会議室の参加者が発話していると判断されることを条件に、第1画像データが第2の所定時間第1選択画像データとして選択され、第2会議室に配置された制御手段に送信される。また、第3会議室に配置された制御手段に送信する第2選択画像データとして、第2画像データおよび第3画像データのいずれか一方を選択しているとき、一方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、第1会議室の参加者が発話していると判断されることを条件に、第1画像データが第2の所定時間第2選択画像データとして選択され、第3会議室に配置された制御手段に送信される。このため、第2会議室の参加者は、第1および第3会議室の参加者が会話しているときは、二人の参加者が向かい合って会話する画像を見るが、その状態が第1の所定時間継続すると、第1または第3会議室の参加者いずれかが発話していれば、第1または第3会議室の参加者のうち発話している参加者と視線が合う画像を見ることになる。また、第3会議室の参加者は、第1および第2会議室の参加者が会話しているときは、二人の参加者が向かい合って会話する画像を見るが、その状態が第1の所定時間継続すると、第1または第2会議室の参加者が発話していれば、第1または第2会議室の参加者のうち発話している参加者と視線が合う画像を見ることになる。さらに、第1会議室の参加者は、第2および第3会議室の参加者が会話しているときは、二人の参加者が向かい合って会話する画像を見るが、その状態が第1の所定時間継続すると、第2または第3会議室の参加者が発話していれば、第2または第3会議室の参加者のうち発話している参加者と視線が合う画像を見ることになる。このため、3つの会議室それぞれの参加者は、他の2つの会議室の参加者が会話している間は、他の2つの会議室の二人の参加者が向かい合って会話する画像を見るが、他の2つの会議室の参加者が会話している状態が所定時間継続すると、他の2つの会議室の参加者のうち発話している参加者と視線が合う画像を見ることができる。 According to this aspect, when one of the second image data and the third image data is selected as the first selected image data to be transmitted to the control means arranged in the second conference room, the other conference room is selected. If the state determined to be in conversation with the participant continues for the first predetermined time, the first image data is second on condition that it is determined that the participant in the first conference room is speaking. Is selected as the first selection image data for a predetermined time and transmitted to the control means arranged in the second conference room. Further, when one of the second image data and the third image data is selected as the second selected image data to be transmitted to the control means arranged in the third conference room, If the state determined to be a conversation continues for the first predetermined time, the first image data is set to the second predetermined time on condition that the participant in the first conference room is determined to be speaking. It is selected as the 2-selected image data and transmitted to the control means arranged in the third conference room. For this reason, when the participants in the second conference room are talking to the participants in the first and third conference rooms, the participants see the images of the two participants facing each other, but the state is the first. If any of the participants in the first or third conference room is speaking, the image that matches the line of sight of the speaking participant among the participants in the first or third meeting room is viewed. It will be. In addition, the participants in the third conference room, when the participants in the first and second conference rooms are talking, see the images of the two participants facing each other, the state is the first If the participant in the first or second conference room is speaking for a predetermined time, the user will see an image whose line of sight matches the participant speaking in the first or second conference room. . Furthermore, when the participants in the first conference room are talking to the participants in the second and third conference rooms, the participants see the images of the two participants facing each other. If the participant in the second or third conference room is speaking for a predetermined time, the user will see an image whose line of sight matches the participant speaking in the second or third conference room. . For this reason, participants in each of the three conference rooms see images where the two participants in the other two conference rooms face each other while the participants in the other two conference rooms are talking. However, if the participants in the other two conference rooms are in a conversation state for a predetermined time, it is possible to see an image whose line of sight matches the participant speaking in the other two conference rooms. .
好ましくは、3つの会議室それぞれは、さらに、音声を集音するマイクロホンが配置され、制御手段は、音声出力装置およびマイクロホンを、さらに制御し、マイクロホンが出力する音データに基づいて、参加者が発話しているか否かを判断する発話検出手段を、さらに備え、発話相手判定手段は、視線方向検出手段により検出された視線方向が、第1表示領域に向かい、かつ、参加者が発話していると判断される場合に一方の会議室の参加者に発話していると判定し、視線方向検出手段により検出された視線方向が、第2表示領域に向かい、かつ、参加者が発話していると判断される場合に他方の会議室の参加者に発話していると判定する。 Preferably, each of the three conference rooms is further provided with a microphone that collects sound, and the control means further controls the sound output device and the microphone, and the participant can control the sound based on the sound data output from the microphone. Speech detection means for determining whether or not the user is speaking is further provided, and the speech partner determination means is such that the line-of-sight direction detected by the line-of-sight direction detection means faces the first display area and the participant speaks. If it is determined that the person is speaking to a participant in one of the conference rooms, the line-of-sight direction detected by the line-of-sight detection means is directed to the second display area, and the participant speaks. If it is determined that the user is speaking, it is determined that the user is speaking to the participant in the other conference room.
好ましくは、3つの会議室それぞれは、さらに、音声を出力する音声出力装置が配置され、制御手段は、音声出力装置を、さらに制御し、音声出力装置に出力する音声制御手段を、さらに備え、第1会議情報送信手段は、第1選択画像データとマイクロホンが出力する音データとを含む映像データと、発話相手判定手段により判定された発話相手を示す第1発話相手情報と、を一方の会議室に配置された制御手段に送信し、第2会議情報送信手段は、第2選択画像データとマイクロホンが出力する音データとを含む映像データと第1発話相手情報と、を他方の会議室に配置された制御手段に送信し、音声制御手段は、一方の会議室に配置された制御手段から受信される映像データに含まれる音データと、他方の会議室に配置された制御手段から受信される映像データに含まれる音データと、を音声出力装置に出力する。 Preferably, each of the three conference rooms is further provided with an audio output device for outputting audio, and the control means further includes audio control means for further controlling the audio output device and outputting to the audio output device, The first conference information transmitting means includes the video data including the first selected image data and the sound data output from the microphone, and the first utterance partner information indicating the utterance partner determined by the utterance partner determination means. The second meeting information transmitting means transmits the video data including the second selected image data and the sound data output from the microphone and the first utterance partner information to the other meeting room. The audio control means transmits the sound data contained in the video data received from the control means arranged in one conference room and the control means arranged in the other conference room. And it outputs the sound data included in the video data received, the audio output device.
以下、本発明の実施の形態について図面を参照して説明する。以下の説明では同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがってそれらについての詳細な説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
<第1の実施の形態>
図1は、本発明の第1の実施の形態における会議システム全体の概要を示す図である。図1を参照して、第1の実施の形態における会議システム1は、ネットワーク3に接続された6台のパーソナルコンピュータ(以下「PC」という)100,100A〜100Fを含む。PC100,100A〜100Fは、地理的に離れた第1〜第7会議室にそれぞれ設置される。
<First Embodiment>
FIG. 1 is a diagram showing an overview of the entire conference system according to the first embodiment of the present invention. Referring to FIG. 1, a
第1の実施の形態における会議システム1は、第1〜第7会議室にそれぞれ存在する7人の参加者のいずれか一人が発話し、他の6人が発話者を撮像した画像と発話内容の音声を視聴する場合に有効であり、ここでは、第1会議室に存在する参加者が発話し、第2〜第7会議室それぞれに存在する参加者が視聴する場合を例に説明する。第1〜第7会議室それぞれに配置されるPC100,100A〜100Fの構成は同じである。以下の説明では、第2〜第7会議室それぞれに配置されるPC100A〜PC100Fの構成要素に付す符号を、第1会議室に配置されるPC100の構成要素に付す符号に添え字A〜Fを付して説明する。また、第1〜第7会議室それぞれに配置されるPC100,100A〜100Fの構成は同じなので、以下の説明では特に言及しない限り、第1会議室に配置されるPC100を例に説明する。
In the
第1会議室に配置されるPC100は、音を集音するマイクロホン31と、音を出力するスピーカ33と、PC100の正面を撮像するカメラ35と、を備えている。ネットワーク3は、ローカルエリアネットワーク(LAN)である。このため、PC100,100A〜100Fは、互いにデータを送受信することが可能である。なお、ネットワーク3は、LANに限らず、インターネット、ワイドエリアネットワーク(WAN)、公衆交換電話網等であってもよい。また、ネットワーク3は、有線であってもよく、無線であってもよい。
The
第1の実施の形態における会議システムにおいては、第1会議室に配置されたPC100のカメラ35で参加者を撮像した画像が、第2〜第7会議室にそれぞれ配置されたPC100A〜100Fそれぞれの表示部に表示され、第1会議室に配置されたPC100のマイクロホン31で集音した音声が、第2〜第7会議室にそれぞれ配置されたPC100A〜100Fそれぞれのスピーカ33A〜33Fから出力される。
In the conference system in the first embodiment, images obtained by capturing the participants with the
また、第1会議室に配置されたPC100の表示部には、第1会議室に配置されたPC100の表示部には、第2〜第7会議室にそれぞれ配置されたPC100A〜100Fそれぞれのカメラ35A〜35Fで撮影された6つの画像を並へて配置した画面が表示され、第1会議室に配置されたPC100のスピーカ33からは、第2〜第7会議室にそれぞれ配置されたPC100A〜100Fそれぞれのマイクロホン31A〜31Fで集音された音を合成した音が出力される。
In addition, the display unit of the
図2は、第1の実施の形態におけるPCのハードウエア構成の一例を示すブロック図である。図2を参照して、PC100は、それぞれがバス41に接続されたCPU11と、CPU11が実行するプログラム等を記憶するためのROM(Read Only Memory)13と、CPU11の作業領域として用いられるRAM15と、大容量記憶装置としてのHDD17と、メモリカード18が装着されるカードインターフェース(I/F)19と、PC100をネットワーク3に接続するための通信I/F21と、参加者とのインターフェースとなるユーザインターフェース23と、外部I/F29と、を含む。
FIG. 2 is a block diagram illustrating an example of a hardware configuration of the PC according to the first embodiment. Referring to FIG. 2, the
CPU11は、PC100の全体を制御する。また、CPU11は、ROM13に記憶されたプログラムを実行する。また、CPU11は、カードI/F19を介してメモリカード18に記憶されたプログラムをRAM15にロードし、実行するようにしてもよい。
The
さらに、CPU11がネットワーク3に接続されたコンピュータからプログラムをダウンロードしてHDD17に記憶する、または、ネットワーク3に接続されたコンピュータがプログラムをHDD17に書き込みするようにしてCPU11で実行するようにしてもよい。ここでいうプログラムは、CPU11により直接実行可能なプログラムだけでなく、ソースプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
Further, the
ユーザインターフェース23は、キーボードとマウス等のポインティングデバイスとを含む操作部25と、データを表示する液晶表示装置等からなる表示部27とを含む。
The
外部I/F29には、マイクロホン31、スピーカ33およびカメラ35が接続される。マイクロホン31は、PC100の参加者が発生する音声を集音し、集音した音声の音データを、外部I/F29に出力する。外部I/F29は、マイクロホン31から入力される音データを、CPU11に出力する。スピーカ33は、CPU11により制御され、CPU11から入力される音データに基づいて音を出力する。カメラ35は、PC100を操作する参加者を撮像し、撮像した画像の画像データを外部I/F29に出力する。外部I/F29は、カメラ35から入力される画像データを、CPU11に出力する。カメラ35は、表示部27の上側に配置される。これにより、表示部27を見る参加者の画像を撮像するので、参加者を正面から撮像することができる。
A
なお、CPU11が実行するためのプログラムを記憶する記録媒体としては、メモリカード18に限られず、フレキシブルディスク、カセットテープ、光ディスク(CD−ROM(Compact Disc−Read Only Memory)/MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、ICカード、光カード、マスクROM、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable and Programmable ROM)などの半導体メモリ等の媒体でもよい。
The recording medium for storing the program to be executed by the
図3は、第1の実施の形態におけるPCが備えるCPUの機能の一例を示すブロック図である。図3を参照して、PC100は、カメラ35が出力する画像データを取得する画像データ取得部51と、マイクロホン31が出力する音データを取得する音データ取得部53と、画像データに基づいて被写体の視線方向を検出する視線方向検出部55と、所定の画像データを視線画像データとしてHDD17に記憶する視線画像記憶部57と、カメラ35から取得された画像データとHDD17に記憶された視線画像データのいずれか一方を選択する選択部59と、音データと画像データとを含む映像データを送信する映像データ送信部61と、通信I/F21を制御して映像データを受信する映像データ受信部63と、表示部27を制御する表示制御部65と、スピーカ33を制御する音声制御部67と、を含む。
FIG. 3 is a block diagram illustrating an example of the functions of the CPU provided in the PC according to the first embodiment. Referring to FIG. 3, the
画像データ取得部51は、外部I/F29に接続されたカメラ35を制御し、カメラ35が出力する画像データを取得する。画像データは、動画像であってもよいし、静止画像であってもよい。ここでは、画像データを動画像としている。画像データ取得部51は、画像データを視線方向検出部55、選択部59および視線画像記憶部57に出力する。
The image
音データ取得部53は、外部I/F21に接続されたマイクロホン31を制御し、マイクロホン31が出力する音データを取得する。音データ取得部53は、音データを映像データ送信部61に出力する。
The sound
視線方向検出部55は、画像データ取得部51から入力される画像データに基づいて被写体の視線方向を検出する。具体的には、画像データに含まれる被写体の領域を抽出し、被写体の領域から、目の領域および瞳の領域を抽出する。目の領域に対する瞳の領域の位置関係から視線方向を検出する。瞳の領域を、左、中、右の3つの領域に水平方向に3分割し瞳の領域が、3つの分割領域のいずれに存在するかを判別する。瞳の領域が、目の領域の左の分割領域に存在すれば、右方向の視線方向を検出し、瞳の領域が、目の領域の中の分割領域に存在すれば、正面方向の視線方向を検出し、瞳の領域が、目の領域の右の分割領域に存在すれば、左方向の視線方向を検出する。視線方向検出部55は、検出した視線方向を選択部59および視線画像記憶部57に出力する。視線方向検出部55は、被写体の領域から目の領域を抽出できない場合、視線方向を検出できないので、この場合には、視線方向が検出できないことを示す信号を出力する。
The line-of-sight
なお、目の領域を、上中下および左中右の9つの領域に垂直方向および水平方向に9分割し、瞳の領域が、9つの分割領域のいずれに存在するかを判別するようにして、水平方向の視線方向に加えて、垂直方向の視線方向を検出するようにしてもよい。この場合、瞳の領域が、目の領域の垂直方向が中であって水平方向が左の分割領域に存在すれば、右方向の視線方向を検出し、瞳の領域が、目の領域の垂直方向が中であって水平方向が中の分割領域に存在すれば、正面方向の視線方向を検出し、瞳の領域が、目の領域の垂直方向が中であって水平方向が右の分割領域に存在すれば、左方向の視線方向を検出する。視線方向検出部55は、瞳の領域が、目の領域の垂直方向が上または下の分割領域に存在すれば、上方向または下方向の視線方向を検出する。
The eye area is divided into nine areas, upper, middle, lower, left, left, and right, in the vertical direction and the horizontal direction, and it is determined which of the nine divided areas the pupil area exists. In addition to the horizontal line-of-sight direction, the vertical line-of-sight direction may be detected. In this case, if the pupil area is in the left divided area where the vertical direction of the eye area is in the middle, the right gaze direction is detected, and the pupil area is perpendicular to the eye area. If the direction is middle and the horizontal direction is in the middle divided area, the frontal gaze direction is detected, and the pupil area is the divided area where the vertical direction of the eye area is middle and the horizontal direction is the right If it exists, the left gaze direction is detected. The line-of-sight
視線画像記憶部57は、画像データ取得部51から画像データが入力され、視線方向検出部55から視線方向が入力される。視線画像記憶部57は、視線方向が正面方向の間、画像データ取得部51から入力される画像データを視線画像データとしてHDD17に記憶する。これにより、視線を正面にした被写体の画像を含む視線画像データ101がHDD17に記憶される。
The line-of-sight
選択部59は、画像データ取得部51から画像データが入力され、視線方向検出部55から視線方向が入力される。選択部59は、視線方向検出部55から入力される視線方向に基づいて、画像データ取得部51から入力される画像データと、HDD17に記憶された視線画像データ101のいずれか一方を選択する。具体的には、選択部59は、視線方向検出部55から正面方向を示す視線方向が入力されなくなってから所定時間T1が継続すると、HDD17に記憶された視線画像データを、所定時間T2の間選択し、それ以外の間は画像データ取得部51から入力される画像データを選択する。
The
選択部59は、視線方向検出部55から正面方向の視線方向が入力される間は、画像データ取得部51から入力される画像データを選択する。また、選択部59は、視線方向検出部55から正面方向の視線方向が入力されない間であっても、視線方向検出部55から正面方向の視線方向が入力されなくなってから所定時間T1が経過するまでの間は、画像データ取得部51から入力される画像データを選択する。さらに、選択部59は、視線方向検出部55から正面方向の視線方向が入力されない間は、HDD17に記憶された視線画像データを選択した後、所定時間T2が経過すると画像データ取得部51から入力される画像データを選択すする。さらに、選択部59は、視線方向検出部55から正面方向の視線方向が入力されない間は、一度でも視線画像データを選択した場合には、画像データ取得部51から入力される画像データを選択した後、所定時間T1経過するまでの間は画像データ取得部51から入力される画像データを継続して選択する。
The
選択部59は、画像データ取得部51から入力される画像データおよびHDD17に記憶された視線画像データのうちから選択されたいずれか一方を映像データ送信部61に出力する。
The
映像データ送信部61は、音データ取得部53から音データが入力され、選択部59から画像データが入力され、音データと画像データとを含む映像データを、通信I/F21を介して、PC100A〜100Fに送信する。なお、第2〜第7会議室に設置されるPC100A〜100Fは、PC100,100A〜100Fのうち自装置以外のPCに、映像データを送信する。
The video
映像データ受信部63は、通信I/F21を制御して、PC100A〜100Fそれぞれが送信する映像データを受信する。映像データ受信部63は、映像データに含まれる画像データを表示制御部65に出力し、映像データに含まれる音データを音声制御部67に出力する。表示制御部65は、映像データ受信部63から入力される画像データの画像を表示部27に表示する。本実施の形態においては、映像データ受信部63は、第2〜第7会議室にそれぞれ設置されるPC100A〜100Fそれぞれから映像データを受信するので、6つの画像データに基づき6つ画像を並べて配置した画面を表示部27に表示する。なお、第2〜第7会議室に設置されるPC100A〜100Fは、PC100,100A〜100Fのうち自装置以外のPCのすべてから映像データを受信するが、それらのうちからPC100から受信された映像データに含まれる画像データの画像を表示部27A〜27Fに表示する。
The video
音声制御部67は、映像データ受信部63から入力される音データをスピーカ33に出力し、スピーカ33に音を出力させる。本実施の形態においては、映像データ受信部63は、第2〜第7会議室にそれぞれ設置されるPC100A〜100Fそれぞれから映像データを受信するので、6つの音データに基づき6つ音データを合成した音をスピーカ33に出力させる。第2〜第7会議室に設置されるPC100A〜100Fは、PC100,100A〜100Fのうち自装置以外のPCのすべてから映像データを受信する。PC100A〜100Fは、PC100,100A〜100Fのうち自装置以外のPCのすべてから受信される6つの映像データに含まれる6つの音データを合成した音をスピーカ33A〜33Fにそれぞれ出力させる。
The
図4は、第1の実施の形態における映像データ送信処理の流れの一例を示すフローチャートである。映像データ送信処理は、PC100,100A〜100Fそれぞれにおいて実行されるが、処理対象とする画像データおよび音データが異なるのみなので、ここではPC100を例に説明する。映像データ送信処理は、PC100が備えるCPU11がROM13、HDD17またはメモリカード18に記憶された映像データ送信プログラムを実行することにより、CPU11により実行される処理である。
FIG. 4 is a flowchart illustrating an example of the flow of video data transmission processing in the first embodiment. The video data transmission process is executed in each of the
図4を参照して、CPU11は、カメラ35から入力される画像データに基づいて、被写体の視線方向を検出する(ステップS01)。そして、検出された視線方向が所定方向か否かを判断する(ステップS02)。所定方向は、ここでは正面方向としている。ステップS01において検出された視線方向が正面方向ならば処理をステップS03に進め、そうでなければ処理をステップS06に進める。ステップS03においては、タイマをリセットする。タイマは、被写体の視線方向が正面方向から正面方向以外の方向になってからの時間を計時する。タイマをリセットすることによって、タイマ値は、0となり、その後タイマは計時を開始する。
Referring to FIG. 4,
次のステップS04においては、カメラ35から入力される画像データを視線画像データとしてHDD17に記憶する。これにより、HDD17に、視線方向か正面方向の被写体の画像を含む視線画像データ101がHDD17に記憶される。次のステップS05においては、カメラ35から入力される画像データを、送信の対象となる画像データに選択し、処理をステップS11に進める。
In the next step S04, the image data input from the
ステップS06においては、タイマ値が予め定められたしきい値T1以上か否かを判断する。タイマ値がしきい値T1以上ならば処理をステップS07に進めるが、そうでなければ処理をステップS10に進める。タイマ値は、ステップS03においてリセットされるため、ステップS03の処理が実行されなくなってからの時間である。換言すれば、ステップS02において被写体の視線方向が正面方向でないと判断されてからの経過時間である。したがって、ステップS06においては、被写体が正面方向を見なくなってからの時間がしきい値T1以上になるとステップS07の処理が実行される。 In step S06, it is determined whether the timer value is equal to or greater than a predetermined threshold value T1. If the timer value is equal to or greater than threshold value T1, the process proceeds to step S07; otherwise, the process proceeds to step S10. Since the timer value is reset in step S03, it is the time after the processing in step S03 is not executed. In other words, this is the elapsed time since it was determined in step S02 that the line-of-sight direction of the subject is not the front direction. Therefore, in step S06, if the time after the subject stops looking in the front direction is equal to or greater than the threshold value T1, the process of step S07 is executed.
ステップS07においては、ステップS04においてHDD17に記憶された視線画像データ101を、送信の対象とする画像データに選択し、処理をステップS08に進める。ステップS08においては、タイマ値が予め定められたしきい値T2以上か否かを判断する。しきい値T2は、しきい値T1よりも大きな値である。タイマ値がしきい値T2以上ならば処理をステップS09に進めるが、そうでなければステップS09をスキップして処理をステップS11に進める。ステップS09においては、タイマをリセットする。一方、ステップS10においては、カメラ35から入力される画像データを、送信の対象となる画像データに選択し、処理をステップS11に進める。
In step S07, the line-of-
ステップS09においてタイマがリセットされると、次にステップS06が実行される場合に、処理がステップS10に進む。このため、被写体の視線方向が正面方向でなってからその状態がしきい値T1以上しきい値T2未満の間は、視線画像データが選択される。換言すれば、しきい値T2としきい値T1との差分の時間TM、視線画像データが選択される。さらに、タイマ値が、しきい値T2以上になると、タイマがリセットされるので、被写体の視線方向が正面方向でない状態がしきい値T2以上継続する場合には、しきい値T1の間はカメラ35から入力される画像データを選択する処理(ステップS07)、その後の時間TMの間は視線画像データを選択する処理(ステップS10)が繰り返えされる。 When the timer is reset in step S09, the process proceeds to step S10 when step S06 is executed next. For this reason, the line-of-sight image data is selected while the state of the subject's line-of-sight is the front direction and the state is between the threshold value T1 and the threshold value T2. In other words, the difference time TM between the threshold value T2 and the threshold value T1 and the line-of-sight image data are selected. Furthermore, when the timer value becomes equal to or greater than the threshold value T2, the timer is reset. Therefore, if the state in which the subject's line-of-sight direction is not the front direction continues for the threshold value T2 or more, the camera is kept between the threshold value T1 The process of selecting image data input from 35 (step S07) and the process of selecting line-of-sight image data (step S10) are repeated for the subsequent time TM.
ステップS11においては、ステップS05、ステップS07およびステップS10のいずれかで送信の対象に選択された画像データと、マイクロホン31が入力される音データとを含む映像データを他のPCに送信する。PC100,100A〜100Fのうち、自装置以外のPCのすべてに対して、通信I/F21を介して送信する。次のステップS12においては、終了指示を受け付けたか否かを判断する。参加者が、操作部25の備える終了指示が割り当てられたキーを押下すれば、終了指示を受け付ける。終了指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS01に戻す。
In step S11, video data including the image data selected as the transmission target in any of step S05, step S07, and step S10 and sound data to which the
本実施の形態におけるPC100は、第1会議室に配置され、カメラ35が出力する画像データを解析して、被写体、換言すれば第1会議室に存在する参加者の視線が正面方向を向いているときの画像データをHDD17に視線画像データとして記憶しておき、正面方向を向いていない時間が所定時間T1になると、過去に正面方向を向いていたときの画像データをHDD17から読み出して、画像データに代えて他のPC100A〜100Fに送信する。このため、第1会議室に存在する参加者が、原稿などを見ながら発話するなどであっても、第1会議室の参加者のノンバーバルな情報を他の第2〜第7会議室に配置されたPC100A〜100Fで表示することができる。
The
<変形例>
上述した第1の実施の形態における会議システム1においては、PC100,100A〜100Fそれぞれが他のすべてのPCに映像データを送信する際に、送信側のPCが、視線画像データとカメラ35が出力する実際に撮影した画像データとのいずれかを選択するようにした。変形例における会議システム1においては、送信側のPCで実行していた選択処理を、受信側のPCで実行するようにしたものである。このため、第2会議室に設置されるPC100Aを例に、上述した第1の実施の形態における会議システム1と異なる点を主に説明する。
<Modification>
In the
図5は、第1の実施の形態の変形例におけるPCが備えるCPUの機能の一例を示すブロック図である。図5を参照して、PC100Aは、カメラ37が出力する画像データを取得する画像データ取得部51Aと、マイクロホン31Aが出力する音データを取得する音データ取得部53Aと、音データと画像データとを含む映像データを送信する映像データ送信部61Aと、通信I/F21Aを制御して映像データを受信する映像データ受信部63Aと、画像データに基づいて被写体の視線方向を検出する視線方向検出部55Aと、所定の画像データを視線画像データとしてHDD17Aに記憶する視線画像記憶部57Aと、受信された映像データに含まれる画像データとHDD17Aに記憶された視線画像データのいずれか一方を選択する選択部59Aと、表示部27Aを制御する表示制御部65Aと、スピーカ33Aを制御する音声制御部67Aと、を含む。
FIG. 5 is a block diagram illustrating an example of functions of the CPU provided in the PC according to the modification of the first embodiment. Referring to FIG. 5, the
画像データ取得部51Aは、外部I/F29Aに接続されたカメラ37を制御し、カメラ37が出力する画像データを取得する。画像データ取得部51Aは、画像データを映像データ送信部61Aに出力する。音データ取得部53Aは、外部I/F21Aに接続されたマイクロホン31Aを制御し、マイクロホン31Aが出力する音データを取得する。音データ取得部53Aは、音データを映像データ送信部61Aに出力する。
The image
映像データ送信部61Aは、画像データ取得部51Aから画像データが入力され、音データ取得部53Aから音データが入力され、音データと画像データとを含む映像データを、通信I/F21Aを介して、PC100,100A〜100Fのうち自装置以外のPC100,PC100B〜100Fに送信する。なお、第1、第3〜第7会議室に設置されるPC100,PC100B〜100Fも、同様に、PC100,100A〜100Fのうち自装置以外のPCに映像データを送信する。
The video
映像データ受信部63Aは、通信I/F21を制御して、他のPC100,PC100B〜100Fそれぞれが送信する映像データを受信する。映像データ受信部63Aは、PC100,PC100B〜100Fそれぞれから受信される映像データのうち、発話する参加者が存在する第1会議室に配置されたPC100から受信される映像データを選択し、選択された映像データに含まれる画像データを、視線方向検出部55A、選択部59Aに出力する。
The video
また、映像データ受信部63Aは、PC100,PC100B〜100Fそれぞれから受信される映像データに含まれる6つの音データを音声制御部67Aに出力する。音声制御部67Aは、映像データ受信部63Aから入力される音データをスピーカ33Aに出力し、スピーカ33Aに音を出力させる。本実施の形態においては、映像データ受信部63Aは、第1、第3〜第7会議室にそれぞれ設置されるPC100、PC100B〜100Fそれぞれから映像データを受信するので、6つの音データに基づき6つ音データを合成した音をスピーカ33に出力させる。なお、第1、第3〜第7会議室に設置されるPC100、100A〜100Fは、PC100,100A〜100Fのうち自装置以外のPCのすべてから映像データを受信するので、PC100、100A〜100Fは、PC100,100A〜100Fのうち自装置以外のPCのすべてから受信される6つの映像データに含まれる6つの音データを合成した音をスピーカ33、33B〜33Fにそれぞれ出力させる。
Further, the video
視線方向検出部55Aは、映像データ受信部63Aから入力される画像データに基づいて被写体の視線方向を検出する。ここでは、PC100から受信される映像データに含まれる画像データに基づいて被写体の視線方向を検出する。視線方向検出部55Aは、検出した視線方向を選択部59Aおよび視線画像記憶部57Aに出力する。
The line-of-sight
視線画像記憶部57Aは、映像データ受信部63Aから画像データが入力され、視線方向検出部55Aから視線方向が入力される。視線画像記憶部57Aは、視線方向が正面方向の間、映像データ受信部63Aから入力されるPC100から受信された映像データに含まれる画像データを視線画像データとしてHDD17Aに記憶する。これにより、視線を正面にした被写体の画像を含む視線画像データ101がHDD17に記憶される。
The line-of-sight
選択部59Aは、映像データ受信部63Aから画像データが入力され、視線方向検出部55Aから視線方向が入力される。選択部59Aは、視線方向検出部55Aから入力される視線方向に基づいて、映像データ受信部63Aから入力されるPC100から受信された映像データに含まれる画像データと、HDD17Aに記憶された視線画像データ101のいずれか一方を選択する。具体的には、選択部59Aは、視線方向検出部55Aから正面方向を示す視線方向が入力されなくなってから所定時間T1が継続すると、HDD17Aに記憶された視線画像データを、所定時間T2の間選択し、それ以外の間は映像データ受信部63Aから入力される画像データを選択する。選択部59Aは、映像データ受信部63Aから入力される画像データおよびHDD17に記憶された視線画像データのうちから選択された一方を表示制御部65Aに出力する。
The
表示制御部65Aは、選択部59Aから入力される画像データの画像を表示部27Aに表示する。本実施の形態の変形例におけるPC100Aは、第1会議室に配置されるPC100から受信される映像データに含まれる画像データを解析して、被写体、換言すれば第1会議室に存在する参加者の視線が正面方向を向いているときの画像データをHDD17Aに記憶しておき、正面方向を向いていない時間が所定時間T1になると、過去に正面方向を向いていたときの画像データをHDD17Aから読み出して、表示する。このため、第1会議室に存在する参加者が、原稿などを見ながら発話するなどであっても、第1会議室の参加者のノンバーバルな情報を表示することができる。
The
なお、第1の実施の形態の変形例においては、第1会議室に配置されたPC100は、第2〜第7会議室にそれぞれ設置されるPC100A〜100Fそれぞれから映像データを受信するので、6つの画像データに基づき6つ画像を並べて配置した画面を表示部27に表示する。
In the modification of the first embodiment, the
以上説明したように、第1の実施の形態における会議システム1においては、発表者が参加する第1会議室に配置されるPC100によって、カメラ35が出力する画像データに基づいて、発表者の視線方向が検出され、発表者の視線が表示部27を向く方向が検出されている間に、カメラ35が出力する画像データが記憶され、カメラ35が出力する画像データおよびHDD17に記憶された視線画像データのうちいずれか一方が選択され、選択された画像データを含む映像データが、第2会議室に配置されたPC100A〜100Dに送信される。また、カメラ35が出力する画像データを選択しているときに、検出された視線方向が表示部27を向く方向でない状態が所定時間T1継続すると、HDD17に記憶された視線画像データが選択される。第1会議室の参加者の視線方向が表示部27を向いているときは、第2会議室の参加者は第1会議室の参加者と視線が合うが、第1会議室の参加者の視線方向が表示手段を向いていないときはるときは、第2会議室の参加者は第1会議室の参加者と視線が合わない。第2会議室の参加者は第1会議室の参加者と視線が合わない状態が所定時間T1継続すると、第1会議室の参加者の視線方向が表示部27を向いているときに記憶された視線画像データが選択されるので、第2会議室の参加者は第1会議室の参加者と視線が合う画像を見ることになる。このため、発表者から参加者にノンバーバル情報が伝達されていないときに、ノンバーバル情報を伝達することができる。
As described above, in the
<第2の実施の形態>
次に、第2の実施の形態における会議システムについて説明する。第2の実施の形態における会議システムは、地理的に離れて存在する3人で会議する場合に適用できる。
<Second Embodiment>
Next, the conference system in the second embodiment will be described. The conference system in the second embodiment can be applied when a conference is held by three people who are geographically separated.
図6は、第2の実施の形態における会議システム全体の概要を示す図である。図6を参照して、第2の実施の形態における会議システム1Aは、ネットワーク3に接続された3台のPC100,100A,100Bを含む。PC100,100A,100Bは、地理的に離れた第1、第2および第3会議室にそれぞれ設置される。ここでは、第1会議室に第1参加者が存在し、第2会議室に第2参加者が存在し、第3会議室に第3参加者が存在する場合を例に説明する。
FIG. 6 is a diagram illustrating an overview of the entire conference system according to the second embodiment. Referring to FIG. 6,
ネットワーク3は、ローカルエリアネットワーク(LAN)である。このため、PC100,100A,100Bは、互いにデータを送受信することが可能である。なお、ネットワーク3は、LANに限らず、インターネット、ワイドエリアネットワーク(WAN)、公衆交換電話網等であってもよい。また、ネットワーク3は、有線であってもよく、無線であってもよい。
The
第2の実施の形態における会議システム1Aにおいて、PC100,100A,100Bの構成は同じである。以下の説明では、第2および第3会議室それぞれに配置されるPC100A、100Bの構成要素に付す符号を、第1会議室に配置されるPC100の構成要素に付す符号に添え字AおよびBを付して説明する。また、PC100,100A、100Bの構成は同じなので、以下の説明では特に言及しない限り、第1会議室に配置されるPC100を例に説明する。
In the
図7は、第2の実施の形態におけるPCのハードウエア構成の一例を示すブロック図である。図7を参照して、図2に示したPC100のハードウエア構成と異なる点は、外部I/F29に接続されていたカメラ35が第1カメラ35に変更され、さらに、外部I/F29に、第2カメラ37および第3カメラ39が追加して接続される点である。その他の構成は、図2に示したのと同じなので、ここでは説明を繰り返さない。
FIG. 7 is a block diagram illustrating an example of a hardware configuration of a PC according to the second embodiment. Referring to FIG. 7, the difference from the hardware configuration of
外部I/F29には、マイクロホン31、スピーカ33および第1〜第3カメラ35,37,39が接続される。外部I/F29は、マイクロホン31から入力される音データを、CPU11に出力する。第1カメラ35は、PC100の正面に存在する被写体、ここでは第1参加者の正面を撮像し、撮像して得られる画像データを外部I/F29に出力する。第2カメラ37は、被写体である第1参加者の右側面を撮像し、撮像して得られる画像データを外部I/F29に出力する。第3カメラ39は、被写体である第1参加者の左側面を撮像し、撮像して得られる画像データを外部I/F29に出力する。外部I/F29は、第1〜第3カメラ35,37,39から入力される画像データを、CPU11に出力する。
A
ここで、第1〜第3会議室の参加者とカメラとの位置関係を説明する。図8(A)は、第1会議室の機器の配置の一例を示す図である。図8(A)は、第1参加者を後方から見た画像を縦線のハッチングで示している。図8(A)を参照して、第1参加者の正面に表示部27が配置される。第1参加者の正面で表示部27の上側に第1カメラ35が配置され、第1参加者の右側に第2カメラ37が配置され、第1参加者の左側に第3カメラ39が配置される。第1カメラ35の撮像範囲は第1参加者の正面であり、第2カメラ37の撮像範囲は第1参加者の右側面であり、第3カメラ39の撮像範囲は第1参加者の左側面である。
Here, the positional relationship between the participants in the first to third conference rooms and the camera will be described. FIG. 8A is a diagram illustrating an example of arrangement of devices in the first conference room. FIG. 8A shows an image of the first participant as seen from the rear by vertical hatching. With reference to FIG. 8 (A), the
図8(B)は、第2会議室の機器の配置の一例を示す図である。図8(B)は、第2参加者を後方から見た画像を横線のハッチングで示している。図8(B)を参照して、第2参加者の正面に表示部27Aが配置される。第2参加者の正面で表示部27Aの上側に第1カメラ35Aが配置され、第2参加者の右側に第2カメラ37Aが配置され、第2参加者の左側に第3カメラ39Aが配置される。第1カメラ35Aの撮像範囲は第2参加者の正面であり、第2カメラ37Aの撮像範囲は第2参加者の右側面であり、第3カメラ39Aの撮像範囲は第2参加者の左側面である。
FIG. 8B is a diagram illustrating an example of the arrangement of the devices in the second conference room. FIG. 8B shows an image of the second participant as viewed from the rear by hatching with horizontal lines. With reference to FIG. 8B, a
図8(C)は、第1会議室の機器の配置の一例を示す図である。図8(C)は、第3参加者を後方から見た画像をハッチング無しで示している。図8(C)を参照して、第3参加者の正面に表示部27が配置される。第3参加者の正面で表示部27の上側に第1カメラ35Bが配置され、第3参加者の右側に第2カメラ37Bが配置され、第3参加者の左側に第3カメラ39Bが配置される。第1カメラ35Bの撮像範囲は第3参加者の正面であり、第2カメラ37Bの撮像範囲は第3参加者の右側面であり、第3カメラ39Bの撮像範囲は第3参加者の左側面である。
FIG. 8C is a diagram illustrating an example of the arrangement of the devices in the first conference room. FIG. 8C shows an image of the third participant viewed from behind without hatching. With reference to FIG.8 (C), the
第2の実施の形態における会議システム1Aにおいては、第1会議室に配置されたPC100のカメラ35,37、38で同じ第1参加者をそれぞれ撮像した3つの画像のうちから選択された画像が、第2会議室に配置されたPC100Aの表示部27Aに表示され、第1会議室に配置されたPC100のカメラ35,37、38で同じ第1参加者をそれぞれ撮像した3つの画像のうちから選択された画像が、第3会議室に配置されたPC100Bの表示部27Bに表示される。また、第2会議室に配置されたPC100Aのカメラ35A,37A、38Aで同じ第2参加者をそれぞれ撮像した3つの画像のうちから選択された画像が、第1会議室に配置されたPC100の表示部27に表示され、第2会議室に配置されたPC100Aのカメラ35A,37A、38Aで同じ第2参加者をそれぞれ撮像した3つの画像のうちから選択された画像が、第3会議室に配置されたPC100Bの表示部27Bに表示される。さらに、第3会議室に配置されたPC100Bのカメラ35B,37B、38Bで同じ第3参加者をそれぞれ撮像した3つの画像のうちから選択された画像が、第1会議室に配置されたPC100の表示部27に表示され、第3会議室に配置されたPC100Bのカメラ35B,37B、38Bで同じ第3参加者をそれぞれ撮像した3つの画像のうちから選択された画像が、第2会議室に配置されたPC100Aの表示部27Aに表示される。
In the
換言すれば、第1会議室に配置されたPC100の表示部27には、第2会議室のカメラ35A,37A、38Aで同じ第2参加者をそれぞれ撮像した3つの画像のうちから選択された画像と、第3会議室のカメラ35B,37B、38Bで同じ第3参加者をそれぞれ撮像した3つの画像のうちから選択された画像と、が表示される。また、第2会議室に配置されたPC100Aの表示部27Aには、第1会議室のカメラ35,37、38で同じ第1参加者をそれぞれ撮像した3つの画像のうちから選択された画像と、第3会議室のカメラ35A,37B、38Bで同じ第3参加者をそれぞれ撮像した3つの画像のうちから選択された画像と、が表示される。さらに、第3会議室に配置されたPC100Bの表示部27Bには、第1会議室のカメラ35,37、38で同じ第1参加者をそれぞれ撮像した3つの画像のうちから選択された画像と、第2会議室のカメラ35A,37A、38Aで同じ第2参加者をそれぞれ撮像した3つの画像のうちから選択された画像と、が表示される。
In other words, the
第1会議室に配置されたPC100のスピーカ33からは、第2会議室に配置されたPC100Aのマイクロホン31Aで集音された音と、第3会議室に配置されたPC100Bのマイクロホン31Bで集音された音と、を合成した音が出力される。第2会議室に配置されたPC100Aのスピーカ33Aからは、第1会議室に配置されたPC100のマイクロホン31で集音された音と、第3会議室に配置されたPC100Bのマイクロホン31Bで集音された音と、を合成した音が出力される。第3会議室に配置されたPC100Bのスピーカ33Bからは、第1会議室に配置されたPC100のマイクロホン31で集音された音と、第2会議室に配置されたPC100Aのマイクロホン31Aで集音された音と、を合成した音が出力される。
From the
ここで、第1会議室に配置されたPC100を中心に、第2会議室に配置されたPC100Aおよび第3会議室に配置されたPC100Bとの間で送受信されるデータ、およびPC100の表示部27に表示される画像およびスピーカ33から出力される音について説明する。
Here, centering on the
図9は、第1会議室に配置されたPC100を中心に、第2会議室に配置されたPC100Aおよび第3会議室に配置されたPC100Bとの間で送受信されるデータの一例を示す図である。図9を参照して、第1会議室に配置されるPC100は、第2会議室に配置されるPC100Aに、映像データ、第1発話相手情報および表示領域情報を送信し、第2会議室に配置されるPC100Aから映像データ、第2発話相手情報および表示領域情報を受信する。また、第1会議室に配置されるPC100は、第3会議室に配置されるPC100Bに、映像データ、第1発話相手情報および表示領域情報を送信し、第3会議室に配置されるPC100Bから映像データ、第3発話相手情報および表示領域情報を受信する。
FIG. 9 is a diagram illustrating an example of data transmitted / received between the
第1会議室に配置されるPC100が、第2会議室に配置されるPC100Aに送信する映像データは、第1〜第3カメラ35,37,39それぞれが出力する3つの画像データのうちから選択された1つの第1選択画像データと、マイクロホン31が出力する音データとを含む。第1会議室に配置されるPC100が、第3会議室に配置されるPC100Bに送信する映像データは、第1〜第3カメラ35,37,39それぞれが出力する3つの画像データのうちから選択された1つの第2選択画像データと、マイクロホン31が出力する音データとを含む。第1会議室に配置されるPC100が、第2会議室に配置されるPC100Aに送信する映像データに含まれる第1選択画像データと、第3会議室に配置されるPC100Bに送信する映像データに含まれる第2選択画像データとは、同じ場合と、異なる場合がある。第1会議室に配置されるPC100が、第2会議室に配置されるPC100Aに送信する映像データに含まれる音データと、第3会議室に配置されるPC100Bに送信する映像データに含まれる音データとは、同じである。
The video data transmitted from the
第1会議室に配置されるPC100は、第2会議室に配置されるPC100Aから受信する映像データに含まれる画像データを表示部27に表示し、第3会議室に配置されるPC100Bから受信する映像データに含まれる画像データを表示部27に表示する。第1会議室に配置されるPC100が、第2会議室に配置されるPC100Aから受信する映像データに含まれる画像データは、第1〜第3カメラ35A,37A,39Aそれぞれが出力する3つの画像データのうちからPC100Aにより選択された1つであり、第3会議室に配置されるPC100Bから受信する映像データに含まれる画像データは、第1〜第3カメラ35B,37B,39Bそれぞれが出力する3つの画像データのうちからPC100Bにより選択された1つである。
The
ここで、PC100が備える表示部の表示領域について説明する。図10は、表示部の表示領域の一例を示す図である。図10を参照して、表示部27は、第1表示領域と第2表示領域とを有する。第1表示領域および第2表示領域は、表示部27の表示領域を左右に2分割した2つの領域である。第1表示領域は、第2表示領域の左側に配置され、第2表示領域は、第1表示領域の右側に配置される。
Here, the display area of the display unit included in the
図9に戻って、第1会議室に配置されるPC100は、PC100Aから受信される映像データに含まれる画像データを、第1表示領域および第2表示領域のいずれか一方に表示し、PC100Bから受信される映像データに含まれる画像データを、第1表示領域および第2表示領域のうち他方に表示する。ここでは、第1会議室に配置されるPC100は、PC100Aから受信される映像データに含まれる画像データを、第1表示領域に表示し、PC100Bから受信される映像データに含まれる画像データを第2表示領域に表示する場合を例に説明する。
Returning to FIG. 9, the
第1会議室に配置されるPC100が、第2会議室に配置されるPC100Aに送信する表示領域情報は、PC100がPC100Aから受信される映像データに含まれる画像データを第1表示領域と第2表示領域のいずれに表示しているかを示す情報である。また、第1会議室に配置されるPC100が、第3会議室に配置されるPC100Bに送信する表示領域情報は、PC100がPC100Bから受信される映像データに含まれる画像データを第1表示領域と第2表示領域のいずれに表示しているかを示す情報である。ここでは、第1会議室に配置されるPC100が、第2会議室に配置されるPC100Aに送信する表示領域情報は、第1表示領域を示す情報であり、第3会議室に配置されるPC100Bに送信する表示領域情報は、第2表示領域を示す情報である。
The display area information transmitted from the
第1会議室に配置されるPC100が、第2会議室に配置されるPC100Aから受信する表示領域情報は、第1会議室に配置されるPC100が第2会議室に配置されるPC100Aに送信する映像データに含まれる第1選択画像データが、PC100Aの表示部27Aが有する第1表示領域と第2表示領域のいずれに表示されているかを示す情報である。第1会議室に配置されるPC100が、第3会議室に配置されるPC100Bから受信する表示領域情報は、第1会議室に配置されるPC100が第3会議室に配置されるPC100Bに送信する映像データに含まれる第2選択画像データが、PC100Bの表示部27Bが有する第1表示領域と第2表示領域のいずれに表示されているかを示す情報である。
Display area information received from the
第1発話相手情報は、PC100により検出される情報であって、第1会議室の第1参加者が、発話しているか否かを示す情報であり、発話していることを示す場合には第2参加者または第3参加者のいずれに対して発話しているかを示す情報を含む。第2発話相手情報は、PC100Aにより検出される情報であって、第2会議室の第2参加者が、発話しているか否かを示す情報であり、発話していることを示す場合には第1参加者または第3参加者のいずれに対して発話しているかを示す情報を含む。第3発話相手情報は、PC100Bにより検出される情報であって、第3会議室の参加者が、発話しているか否かを示す情報であり、発話していることを示す場合には第1参加者または第2参加者のいずれに対して発話しているかを示す情報を含む。
The first utterance partner information is information detected by the
図11は、第2の実施の形態におけるPCが備えるCPUの機能の一例を示すブロック図である。図11を参照して、PC100は、第1〜第3カメラ35,37,39がそれぞれ出力する3つの第1〜第3画像データを取得する画像データ取得部51と、マイクロホン31が出力する音データを取得する音データ取得部53と、参加者の発話を検出する発話検出部71と、3つの第1〜第3画像データのうちから1つを選択する第1および第2選択部73,77と、第1画像データに基づいて被写体の視線方向を検出する視線方向検出部75と、発話相手を判定する発話相手判定部79と、第2会議室に配置されたPC100Aに会議室情報を送信する第1会議室情報送信部81と、第3会議室に配置されたPC100Bに会議室情報を送信する第2会議室情報送信部81と、第2会議室に配置されたPC100Aから会議室情報を受信する第1会議室情報受信部85と、第3会議室に配置されたPC100Bから会議室情報を受信する第2会議室情報受信部87と、会話相手を判断する会話相手判断部89と、表示部27を制御する表示制御部91と、スピーカ33を制御する音声制御部93と、を含む。
FIG. 11 is a block diagram illustrating an example of functions of the CPU provided in the PC according to the second embodiment. Referring to FIG. 11,
画像データ取得部51は、外部I/F29に接続された第1〜第3カメラ35,37,39を制御し、第1〜第3カメラ35,37,39がそれぞれ出力する第1〜第3画像データを取得する。第1〜第3画像データは、動画像であってもよいし、静止画像であってもよい。ここでは、第1〜第3画像データを動画像としている。画像データ取得部51は、第1〜第3画像データを第1および第2選択部73,77に出力し、第1カメラ35が出力する第1画像データを視線方向検出部75に出力する。
The image
音データ取得部53は、外部I/F21に接続されたマイクロホン31を制御し、マイクロホン31が出力する音データを取得する。音データ取得部53は、音データを、発話検出部71、第1会議室情報送信部81および第2会議室情報送信部83に出力する。
The sound
視線方向検出部75は、画像データ取得部51から入力される第1画像データに基づいて被写体の視線方向を検出する。具体的には、画像データに含まれる被写体の領域を抽出し、被写体の領域から、目の領域および瞳の領域を抽出する。目の領域に対する瞳の領域の位置関係から視線方向を検出する。瞳の領域を、左、右の2つの領域に水平方向に2分割し、瞳の領域が、2つの分割領域のいずれに存在するかを判別する。瞳の領域が、目の領域の左の分割領域に存在すれば、右方向の視線方向を検出し、瞳の領域が、瞳の領域が、目の領域の右の分割領域に存在すれば、左方向の視線方向を検出する。視線方向検出部55は、検出した視線方向を発話相手判定部79に出力する。視線方向検出部55は、画像データから目の領域を抽出できない場合、視線方向を検出することなく、視線方向を発話相手判定部79に出力しない。
The line-of-sight
発話検出部71は、音データ取得部53から音データが入力され、音データに基づいて、第1会議室の参加者の発話の有無を検出する。音データの音声レベルを予め定められたしきい値と比較し、音声レベルがしきい値以上ならば第1会議室の参加者が発話していると判断する。発話検出部71は、第1会議室の参加者が発話しているか否か示す発話有無信号を、発話相手判定部79、第1選択部73および第2選択部77に出力する。
The
発話相手判定部79は、視線方向検出部75から視線方向が入力され、発話検出部71から発話有無信号が入力される。発話相手判定部79は、視線方向および発話有無信号に基づいて発話相手を判定する。後述する表示制御部91によって、第2会議室から受信される映像データに含まれる画像データが表示部27の第1表示領域に表示され、第3会議室から受信される映像データに含まれる画像データは表示部27の第2表示領域に表示される。このため、発話相手判定部79は、発話有無信号が発話していることを示す場合に、視線方向が左方向ならば第2会議室の参加者に対して発話していると判断し、視線方向が右方向ならば第3会議室の参加者に対して発話していると判断する。発話相手判定部79は、特定された発話相手を示す第1発話相手情報を会話相手判断部89、第1および第2会議室情報送信部81,83に出力する。
The utterance
なお、発話相手判定部79は、視線方向検出部75から入力される視線方向のみから発話相手を判定するようにしてもよい。この場合、発話相手判定部79は、発話有無信号に係わらず、視線方向が左方向ならば第2会議室の参加者に対して発話していると判断し、視線方向が右方向ならば第3会議室の参加者に対して発話していると判断し、特定された発話相手を示す第1発話相手情報を会話相手判断部89、第1および第2会議室情報送信部81,83に出力する。
Note that the utterance
また、表示制御部91が、第2会議室から受信される映像データに含まれる画像データを表示部27の第1表示領域および第2表示領域のいずれに表示するかは、任意である。このため、表示制御部91が、第2会議室から受信される映像データに含まれる画像データを表示部27の第2表示領域に表示し、第3会議室から受信される映像データに含まれる画像データを第1表示領域に表示する場合、発話相手判定部79は、視線方向が左方向ならば第3会議室の参加者に対して発話していると判断し、視線方向が右方向ならば第2会議室の参加者に対して発話していると判断する。
In addition, it is arbitrary whether the
第1会議室情報受信部85は、通信I/F21を制御して、第2会議室に配置されるPC100Aから映像データ、第2発話相手情報および表示領域情報を受信する。第1会議室情報受信部85は、受信された映像データに含まれる画像データを、表示制御部91に出力し、音データを音声制御部93に出力する。また、第1会議室情報受信部85は、第2発話相手情報および表示領域情報を会話相手判断部89に出力する。
The first conference room
第2会議室情報受信部87は、通信I/F21を制御して、第3会議室に配置されるPC100Bから映像データ、第3発話相手情報および表示領域情報を受信する。第2会議室情報受信部87は、受信された映像データに含まれる画像データを、表示制御部91に出力し、音データを音声制御部93に出力する。また、第2会議室情報受信部87は、第2発話相手情報および表示領域情報を会話相手判断部89に出力する。
The second meeting room
表示制御部91は、第1会議室情報受信部85から入力される画像データ、換言すれば、第2会議室から受信される映像データに含まれる画像データを、表示部27の第1表示領域に表示する。なお、表示制御部91が、第2会議室から受信される映像データに含まれる画像データを表示部27の第1表示領域および第2表示領域のいずれに表示するかは、任意である。また、表示制御部91は、第2会議室情報受信部87から入力される画像データ、換言すれば、第3会議室から受信される映像データに含まれる画像データを、表示部27の第2表示領域に表示する。表示制御部91が、第2会議室から受信される映像データに含まれる画像データを表示部27の第2表示領域に表示する場合、第3会議室から受信される映像データに含まれる画像データを第1表示領域に表示する。
The
音声制御部93は、第1会議室情報受信部85から入力される音データと、第2会議室情報受信部87から入力される音データと、を合成した音をスピーカ33に出力させる。
The
会話相手判断部89は、第1会議室情報受信部85から第2発話相手情報および表示領域情報が入力され、第2会議室情報受信部87から第3発話相手情報および表示領域情報が入力され、発話相手判定部79から第1発話相手情報が入力される。第2発話相手情報は、第2参加者が第1参加者および第3参加者のいずれに対して発話しているかを示す情報である。第3発話相手情報は、第3参加者が第1参加者および第2参加者のいずれに対して発話しているかを示す情報である。会話相手判断部89は、第1発話相手情報が第2参加者に対して発話していることを示す場合で、かつ、第2発話相手情報が第1参加者に対して発話していることを示す場合、第1参加者と第2参加者とが会話している第1会話状態と判断する。また、会話相手判断部89は、第1発話相手情報が第3参加者に対して発話していることを示す場合で、かつ、第3発話相手情報が第1参加者に対して発話していることを示す場合、第1参加者と第3参加者とが会話している第2会話状態と判断する。
The conversation
会話相手判断部89は、第1参加者と第2参加者とが会話している第1会話状態と判断する場合、第1選択部73に第1会話状態信号を出力し、第1会話状態と判断しない場合、第1選択部73に第1会議室情報受信部85から入力される表示領域情報を出力する。第1会議室情報受信部85から入力される表示領域情報は、第2会議室に配置されたPC100Aの表示部27Aにおいて、PC100からPC100Aに送信された映像信号に含まれる第1選択画像データが第1表示領域と第2表示領域とのいずれに表示されているかを示す情報である。
When determining that the conversation
会話相手判断部89は、第1参加者と第3参加者とが会話している第2会話状態と判断する場合、第2選択部77に第2会話状態信号を出力し、第2会話状態と判断しない場合、第2選択部77に第2会議室情報受信部87から入力される表示領域情報を出力する。第2会議室情報受信部87から入力される表示領域情報は、第3会議室に配置されたPC100Bの表示部27Bにおいて、PC100からPC100Bに送信された映像信号に含まれる第2選択画像データが第1表示領域と第2表示領域とのいずれに表示されているかを示す情報である。
When the conversation
第1選択部73は、画像データ取得部51から第1〜第3画像データが入力され、発話検出部71から発話有無信号が入力され、会話相手判断部89から第1会話状態信号または表示領域情報のいずれかが入力される。第1選択部73は、会話相手判断部89から第1会話状態信号が入力される場合、第1画像データを第1選択画像データとして選択し、表示領域情報が入力される場合は第2および第3画像データのいずれか一方を第1選択画像データとして選択する。第1選択部73は、表示領域情報が第1表示領域を示す場合、第2画像データを第1選択画像データとして選択し、表示領域情報が第2表示領域を示す場合、第3画像データを第1選択画像データとして選択する。また、第1選択部73は、会話相手判断部89から表示領域情報が入力される場合であっても、表示領域情報が入力されてから所定時間T1が継続すると、発話検出部71から発話していることを示す発話有無信号が入力されていることを条件に、第1画像データを、所定時間T2の間、第1選択画像データとして選択する。第1選択部73は、第1〜第3画像データのうちから選択された第1選択画像データを第1会議室情報送信部81に出力する。
The
第2選択部77は、画像データ取得部51から第1〜第3画像データが入力され、、発話検出部71から発話有無信号が入力され、会話相手判断部89から第2会話状態信号または表示領域情報のいずれかが入力される。第2選択部77は、会話相手判断部89から第2会話状態信号が入力される場合、第1画像データを第2選択画像データとして選択し、表示領域情報が入力される場合は第2および第3画像データのいずれか一方を第2選択画像データとして選択する。第2選択部77は、表示領域情報が第1表示領域を示す場合、第2画像データを第2選択画像データとして選択し、表示領域情報が第2表示領域を示す場合、第3画像データを第2選択画像データとして選択する。また、第2選択部77は、会話相手判断部89から表示領域情報が入力される場合であっても、表示領域情報が入力されてから所定時間T1が継続すると、発話検出部71から発話していることを示す発話有無信号が入力されていることを条件に、第1画像データを、所定時間T2の間、第2選択画像データとして選択する。第2選択部77は、第1〜第3画像データのうちから選択された第2選択画像データを第2会議室情報送信部83に出力する。
The
第1会議室情報送信部81は、音データ取得部53から音データが入力され、第1選択部73から第1〜第3画像データのうちから選択された1つの第1選択画像データが入力され、発話相手判定部79から第1発話相手情報が入力される。第1会議室情報送信部81は、第1選択画像データと音データとを含む映像データと、第1発話相手情報と、第1表示領域を示す表示領域情報とを、通信I/F21を制御して、第2会議室に配置されたPC100Aに送信する。なお、表示領域情報は、表示制御部91から入力されるようにしてもよい。
The first conference room
第2会議室情報送信部83は、音データ取得部53から音データが入力され、第2選択部77から第1〜第3画像データのうちから選択された1つの第2選択画像データが入力され、発話相手判定部79から第1発話相手情報が入力される。第2会議室情報送信部83は、第2選択画像データと音データとを含む映像データと、第1発話相手情報と、第2表示領域を示す表示領域情報とを、通信I/F21を制御して、第3会議室に配置されたPC100Bに送信する。なお、表示領域情報は、表示制御部91から入力されるようにしてもよい。
The second conference room
図12は、第2の実施の形態における映像データ送信処理の流れの一例を示すフローチャートである。第2の実施の形態における映像データ送信処理は、PC100,100A,100Bそれぞれにおいて実行されるが、処理対象とする画像データおよび音データが異なるのみなので、ここではPC100が実行する場合を例に説明する。第2の実施の形態における映像データ送信処理は、PC100が備えるCPU11がROM13、HDD17またはメモリカード18に記憶された映像データ送信プログラウを実行することにより、CPU11により実行される処理である。
FIG. 12 is a flowchart illustrating an example of a flow of video data transmission processing in the second embodiment. The video data transmission processing in the second embodiment is executed in each of the
図12を参照して、CPU11は、第2会議室に配置されたPC100Aから映像データ、第2発話相手情報および表示領域情報を受信し(ステップS21)、第3会議室に配置されたPC100Bから映像データ、第3発話相手情報および表示領域情報を受信する(ステップS22)。
Referring to FIG. 12,
そして、ステップS21においてPC100Aから受信された第2会議室の映像データに含まれる画像データを表示部27の第1表示領域に表示し(ステップS23)、第2会議室用の表示領域情報に第1表示領域を示す情報を設定する(ステップS24)。さらに、ステップS22においてPC100Bから受信された第3会議室の映像データに含まれる画像データを表示部27の第2表示領域に表示し(ステップS25)、第3会議室用の表示領域情報に第2表示領域を示す情報を設定する(ステップS26)。
Then, the image data included in the video data of the second meeting room received from the
次のステップS27においては、第1カメラ35から入力される画像データに基づいて、被写体の視線方向を検出する。次のステップS28においては、発話相手検出処理を実行する。発話相手検出処理の詳細は後述するが、第1会議室の第1参加者が発話する相手が、第2会議室の第2参加者および第3会議室の第3参加者のいずれであるかを検出し、検出された相手を示す情報を含む第1発話相手情報を生成する処理である。次のステップS29においては、会話相手検出処理を実行する。会話相手検出処理の詳細は後述するが、第1会議室の参加者が会話する相手が、第2参加者および第3参加者のいずれであるかを検出する処理である。
In the next step S27, the line-of-sight direction of the subject is detected based on the image data input from the
次のステップS30においては、選択画像設定処理を実行する。選択画像設定処理の詳細は後述するが、第2会議室に送信する第1選択画像データに第1〜第3画像データのいずれかを設定するとともに、第3会議室に送信する第2選択画像データに第1〜第3画像データのいずれかを設定する処理である。 In the next step S30, a selected image setting process is executed. Although the details of the selected image setting process will be described later, any one of the first to third image data is set in the first selected image data to be transmitted to the second conference room, and the second selected image to be transmitted to the third conference room This is a process for setting any one of the first to third image data in the data.
次のステップS31においては、通信I/F21を介して、第2会議室に配置されたPC100Aに、映像データ、第1発話相手情報、およびステップS24において設定された第2会議室用の表示領域情報を送信する。映像データは、第1選択画像データおよび音データを含む。次のステップS32においては、通信I/F21を介して、第3会議室に配置されたPC100Bに、映像データ、第1発話相手情報、およびステップS26において設定された第3会議室用の表示領域情報を送信する。映像データは、第2選択画像データおよび音データを含む。
In the next step S31, the video data, the first utterance partner information, and the display area for the second conference room set in step S24 are transmitted to the
次のステップS33においては、終了指示を受け付けたか否かを判断する。参加者が、操作部25の備える終了指示が割り当てられたキーを押下すれば、終了指示を受け付ける。終了指示を受け付けたならば処理を終了するが、そうでなければ処理をステップS21に戻す。
In the next step S33, it is determined whether an end instruction has been accepted. If the participant presses the key to which the end instruction provided in the
図13は、発話相手検出処理の流れの一例を示すフローチャートである。発話相手検出処理は、図12のステップS28において実行される処理である。図13を参照して、CPU11は、発話を検出したか否かを判断する(ステップS41)。マイクロホン31が出力する音データの音声レベルが予め定められたしきい値以上ならば第1会議室の第1参加者の発話を検出する。発話を検出したならば処理をステップS42に進めるが、そうでなければ処理をステップS46に進める。
FIG. 13 is a flowchart illustrating an example of the flow of the speech partner detection process. The speech partner detection process is a process executed in step S28 of FIG. Referring to FIG. 13,
ステップS42においては、視線方向が第1表示領域か否かを判断する。第1画像データに含まれる第1参加者の視線方向が左方向ならば視線方向が第1表示領域と判断する。視線方向が第1表示領域ならば処理をステップS43に進めるが、そうでなければ処理をステップS44に進める。ステップS44においては、視線方向が第2表示領域か否かを判断する。第1画像データの第1参加者の視線方向が右方向ならば視線方向が第2表示領域と判断する。視線方向が第2表示領域ならば処理をステップS45に進めるが、そうでなければ処理をステップS46に進める。 In step S42, it is determined whether or not the viewing direction is the first display area. If the gaze direction of the first participant included in the first image data is the left direction, the gaze direction is determined as the first display area. If the line-of-sight direction is the first display area, the process proceeds to step S43; otherwise, the process proceeds to step S44. In step S44, it is determined whether or not the viewing direction is the second display area. If the line-of-sight direction of the first participant in the first image data is the right direction, the line-of-sight direction is determined as the second display area. If the line-of-sight direction is the second display area, the process proceeds to step S45; otherwise, the process proceeds to step S46.
処理がステップS43に進む場合、第1会議室の参加者が発話しており、かつ、視線方向が第1表示領域の場合である。ステップS43においては、第1発話相手情報に第2参加者を設定し、処理を図12に示した映像データ送信処理に戻す。 When the process proceeds to step S43, the participant in the first conference room is speaking and the line-of-sight direction is the first display area. In step S43, the second participant is set in the first utterance partner information, and the process returns to the video data transmission process shown in FIG.
処理がステップS45に進む場合、第1会議室の参加者が発話しており、かつ、視線方向が第2表示領域の場合である。ステップS45においては、第1発話相手情報に第3参加者を設定し、処理を図12に示した映像データ送信処理に戻す。 When the process proceeds to step S45, the participant in the first conference room is speaking and the line-of-sight direction is the second display area. In step S45, the third participant is set in the first utterance partner information, and the process returns to the video data transmission process shown in FIG.
処理がステップS46に進む場合、第1会議室の参加者が発話していない場合、または、視線方向が第1表示領域および第2表示領域のいずれでもない場合である。ステップS46においては、第1発話相手情報にブランクを設定し、処理を図12に示した映像データ送信処理に戻す。 The process proceeds to step S46 when the participant in the first conference room is not speaking or when the line-of-sight direction is neither the first display area nor the second display area. In step S46, blank is set for the first utterance partner information, and the process returns to the video data transmission process shown in FIG.
図14は、会話相手検出処理の流れの一例を示すフローチャートである。会話相手検出処理は、図12のステップS29において実行される処理である。図14を参照して、CPU11は、第1発話相手情報に、第2参加者が設定されているか否かを判断する。第1発話相手情報に、第2参加者が設定されているならば処理をステップS52に進め、そうでなければ処理をステップS54に進める。ステップS52においては、第2発話相手情報に第1参加者が設定されているか否かを判断する。第2発話相手情報に第1参加者が設定されているならば処理をステップS53に進め、そうでなければ処理をステップS54に進める。第2発話相手情報は、第2会議室に配置されたPC100Aから受信され、第2会議室の第2参加者が発話している相手を特定する情報が設定されている。
FIG. 14 is a flowchart illustrating an example of the flow of a conversation partner detection process. The conversation partner detection process is a process executed in step S29 of FIG. Referring to FIG. 14,
処理がステップS53に進む場合、第1発話相手情報に第2参加者が設定されている場合であって、かつ、第2発話相手情報に第1会議室の参加者が設定されている場合である。ステップS53においては、第1参加者の会話相手を第2参加者に設定し、処理を図12に示した映像データ送信処理に戻す。 When the process proceeds to step S53, the second participant is set in the first utterance partner information, and the participant in the first conference room is set in the second utterance partner information. is there. In step S53, the conversation partner of the first participant is set as the second participant, and the process returns to the video data transmission process shown in FIG.
ステップS54においては、第1発話相手情報に、第3参加者が設定されているか否かを判断する。第1発話相手情報に、第3参加者が設定されているならば処理をステップS55に進め、そうでなければ処理を図12に示した映像データ送信処理に戻す。ステップS55においては、第3発話相手情報に第1参加者が設定されているか否かを判断する。第3発話相手情報に第1参加者が設定されているならば処理をステップS56に進め、そうでなければ処理を図12に示した映像データ送信処理に戻す。 In step S54, it is determined whether or not a third participant is set in the first utterance partner information. If the third participant is set in the first utterance partner information, the process proceeds to step S55; otherwise, the process returns to the video data transmission process shown in FIG. In step S55, it is determined whether or not the first participant is set in the third utterance partner information. If the first participant is set in the third utterance partner information, the process proceeds to step S56; otherwise, the process returns to the video data transmission process shown in FIG.
処理がステップS56に進む場合、第1発話相手情報に第3会議室の参加者が設定されている場合であって、かつ、第3発話相手情報に第1会議室の参加者が設定されている場合である。ステップS56においては、第1参加者の会話相手を第3参加者に設定し、処理を図12に示した映像データ送信処理に戻す。 When the process proceeds to step S56, the participant in the third conference room is set in the first utterance partner information, and the participant in the first conference room is set in the third utterance partner information. This is the case. In step S56, the conversation partner of the first participant is set as the third participant, and the process returns to the video data transmission process shown in FIG.
図15は、選択画像設定処理の流れの一例を示すフローチャートである。選択画像設定処理は、図12のステップS30において実行される処理である。図15を参照して、CPU11は、会話相手は第2参加者か否かを判断する(ステップS61)。会話相手が第2参加者ならば処理をステップS62に進めるが、そうでなければ処理をステップS65に進める。
FIG. 15 is a flowchart illustrating an example of the flow of selected image setting processing. The selected image setting process is a process executed in step S30 of FIG. Referring to FIG. 15,
ステップS62においては、タイマBをリセットする。タイマBは、第1参加者の会話相手が第3参加者である時間を計時する。タイマBをリセットすることによって、タイマB値は、0となり、その後タイマBは計時を開始する。次のステップS63においては、第1選択画像データに第1カメラ35が出力する第1画像データを設定する。次のステップS64においては、第2選択画像データ設定処理を実行し、処理を図12に示した映像データ送信処理に戻す。第2選択画像データ設定処理は、後述するが、第2選択画像データに第1〜第3画像データのいずれかを設定する処理である。
In step S62, timer B is reset. The timer B measures the time during which the conversation partner of the first participant is the third participant. By resetting the timer B, the timer B value becomes 0, and then the timer B starts timing. In the next step S63, the first image data output from the
ステップS65においては、会話相手は第3参加者か否かを判断する。会話相手が第3参加者ならば処理をステップS66に進めるが、そうでなければ処理をステップS69に進める。 In step S65, it is determined whether or not the conversation partner is a third participant. If the conversation partner is the third participant, the process proceeds to step S66; otherwise, the process proceeds to step S69.
ステップS66においては、タイマAをリセットする。タイマAは、第1参加者の会話相手が第2参加者である時間を計時する。タイマAをリセットすることによって、タイマA値は、0となり、その後タイマAは計時を開始する。次のステップS67においては、第2選択画像データに第1カメラ35が出力する第1画像データを設定する。次のステップS68においては、第1選択画像データ設定処理を実行し、処理を図12に示した映像データ送信処理に戻す。第1選択画像データ設定処理は、後述するが、第1選択画像データに第1〜第3画像データのいずれかを設定する処理である。
In step S66, timer A is reset. The timer A measures the time during which the conversation partner of the first participant is the second participant. By resetting the timer A, the timer A value becomes 0, and then the timer A starts timing. In the next step S67, the first image data output from the
ステップS69においては、タイマAをリセットする。次のステップS70においては、タイマBをリセットする。そして、第1選択画像データに第1カメラ35が出力する第1画像データを設定し(ステップS71)、第2選択画像データに第1カメラ35が出力する第1画像データを設定し(ステップS72)、処理を図12に示した映像データ送信処理に戻す。
In step S69, timer A is reset. In the next step S70, the timer B is reset. Then, the first image data output from the
図16は、第2選択画像データ設定処理の流れの一例を示すフローチャートである。第2選択画像データ設定処理は、図15のステップS64において実行される処理である。図16を参照して、CPU11は、タイマA値がしきい値T1以上か否かを判断する(ステップS81)。タイマA値がしきい値T1以上ならば処理をステップS82に進めるが、そうでなければ処理をステップS88に進める。タイマA値は、第1参加者の会話相手が第2参加者である時間を示す。
FIG. 16 is a flowchart illustrating an example of the flow of the second selected image data setting process. The second selected image data setting process is a process executed in step S64 in FIG. Referring to FIG. 16,
ステップS82においては、第1参加者が発話しているか否かを判断する。マイクロホン31が出力する音データの音声レベルをしきい値と比較することによって、発話しているか否かを判断する、第1参加者が発話しているならば処理をステップS83に進めるが、そうでなければ処理をステップS88に進める。
In step S82, it is determined whether or not the first participant is speaking. By comparing the sound level of the sound data output from the
ステップS83においては、第2選択画像データに第1カメラ35が出力する第1画像データを設定する。そして、ステップS84においては、タイマA値が予め定められたしきい値T2以上か否かを判断する。しきい値T2は、しきい値T1よりも大きな値である。タイマA値がしきい値T2以上ならば処理をステップS85に進めるが、そうでなければ処理をステップS86に進める。ステップS85においては、タイマAをリセットし、処理を選択画像設定処理に戻す。
In step S83, the first image data output from the
ステップS86においては、第3参加者の反応があったか否かを判断する。第3会議室に配置されたPC100Bから受信される映像データに含まれる画像データを解析して、画像データに含まれる被写体の動き、または、表情を分析する。被写体の動きが検出される場合、または表示の変化を検出する場合に、反応があったと判断する。第3参加者の反応があったと判断する場合、第1画像データをHDD17に記憶し、処理を選択画像設定処理に戻す。ステップS87が実行された後に、ステップS83が実行される場合、第2選択画像データに、第1カメラ35が出力する第1画像データに代えて、HDD17に記憶された第1画像データを設定する。これにより、第3会議室の第3参加者に影響を与えることのできる画像を視聴させることができる。
In step S86, it is determined whether or not there has been a reaction from the third participant. The image data included in the video data received from the
また、第3参加者の反応がなかった場合、または第3参加者の反応の有無に係わらず、表示部27に注意を喚起するメッセージ、例えば、「第3会議室に視線を向けてください。」等を表示するようにしてもよい。これにより、第1参加者は、説明や議論が第2参加者側に偏っていることを知ることができ、第3参加者に対して話しかける等の対応が可能になる。
In addition, when there is no response from the third participant or regardless of whether or not the third participant responds, a message that calls attention to the
一方、ステップS88においては、第3会議室の表示領域情報によって処理を分岐させる。第3会議室の表示領域情報が第1表示領域ならば処理をステップS89に進めるが、第3会議室の表示領域情報が第2表示領域ならば処理をステップS90に進める。第3会議室の表示領域情報は、第3会議室に配置されたPC100Bが、第1会議室に配置されたPC100から受信される映像データに含まれる画像データ、換言すれば第2選択画像データを、表示部27Bの第1表示領域および第2表示領域のいずれに表示しているかを示す情報である。
On the other hand, in step S88, the process is branched according to the display area information of the third conference room. If the display area information of the third meeting room is the first display area, the process proceeds to step S89. If the display area information of the third meeting room is the second display area, the process proceeds to step S90. The display area information of the third meeting room is the image data included in the video data received from the
ステップS89においては、第2選択画像データに第2カメラ37が出力する第2画像データを設定し、処理を選択画像設定処理に戻す。ステップS90においては、第2選択画像データに第3カメラ39が出力する第3画像データを設定し、処理を選択画像設定処理に戻す。
In step S89, the second image data output from the
ステップS85においてタイマAがリセットされると、次にステップS81が実行される場合に、処理がステップS88に進む。このため、第1参加者の会話相手が第2参加者の状態がしきい値T1以上しきい値T2未満の間は、第2選択画像データに第1画像データが選択される。換言すれば、しきい値T2としきい値T1との差分の時間TM、第1画像データが選択される。さらに、タイマA値が、しきい値T2以上になると、タイマAがリセットされるので、第1参加者の会話相手が第2参加者である状態がしきい値T2以上継続する場合には、タイマA値がしきい値T1の間は第2選択画像データに第1カメラ35から入力される第1画像データを設定する処理(ステップS83)、その後の時間TMの間は第2選択画像データに第2または第3画像データを選択する処理(ステップS89、ステップS90)が繰り返えされる。
When the timer A is reset in step S85, the process proceeds to step S88 when step S81 is executed next. Therefore, the first image data is selected as the second selection image data while the conversation partner of the first participant is in the state of the second participant being not less than the threshold value T1 and less than the threshold value T2. In other words, the difference time TM between the threshold value T2 and the threshold value T1 and the first image data are selected. Furthermore, since the timer A is reset when the timer A value becomes equal to or greater than the threshold value T2, when the state where the conversation partner of the first participant is the second participant continues for the threshold value T2 or more, A process of setting the first image data input from the
なお、ここでは第1参加者の会話相手が第2参加者の状態がしきい値T1以上継続すると、第1画像データを、第2選択画像データに設定するようにしたが、第1参加者の会話相手が第2参加者の状態が継続する時間を、ランダムな時間としてもよい。例えば、第1参加者の発話が中断した場合とすればよい。また、第1画像データを、第2選択画像データに設定する時間を時間TMとしたが、時間TMは、任意に定めることができ、第3参加者が第1画像データの画像を認識できる程度に短い時間であってもよい。 In this case, the first image data is set as the second selected image data when the first participant's conversation partner is in the state of the second participant for the threshold value T1 or more. The time during which the conversation partner is in the state of the second participant may be a random time. For example, the first participant's speech may be interrupted. In addition, although the time TM is set as the second selected image data for the first image data, the time TM can be arbitrarily determined, and the third participant can recognize the image of the first image data. It may be a short time.
図17は、第1選択画像データ設定処理の流れの一例を示すフローチャートである。第1選択画像データ設定処理は、図15のステップS68において実行される処理である。図17を参照して、CPU11は、タイマB値がしきい値T1以上か否かを判断する(ステップS91)。タイマB値がしきい値T1以上ならば処理をステップS93に進めるが、そうでなければ処理をステップS98に進める。タイマB値は、第1参加者の会話相手が第3参加者である時間を示す。
FIG. 17 is a flowchart illustrating an example of the flow of the first selected image data setting process. The first selected image data setting process is a process executed in step S68 of FIG. Referring to FIG. 17,
ステップS92においては、第1参加者が発話しているか否かを判断する。マイクロホン31が出力する音データの音声レベルをしきい値と比較することによって、発話しているか否かを判断する、第1参加者が発話しているならば処理をステップS93に進めるが、そうでなければ処理をステップS98に進める。
In step S92, it is determined whether or not the first participant is speaking. By comparing the sound level of the sound data output from the
ステップS93においては、第1選択画像データに第1カメラ35が出力する第1画像データを設定する。そして、ステップS94においては、タイマB値が予め定められたしきい値T2以上か否かを判断する。しきい値T2は、しきい値T1よりも大きな値である。タイマB値がしきい値T2以上ならば処理をステップS95に進めるが、そうでなければ処理をステップS96に進める。ステップS95においては、タイマBをリセットし、処理を選択画像設定処理に戻す。
In step S93, the first image data output from the
ステップS96においては、第2参加者の反応があったか否かを判断する。第2会議室に配置されたPC100Aから受信される映像データに含まれる画像データを解析して、画像データに含まれる被写体の動き、または、表情を分析する。被写体の動きが検出される場合、または表示の変化を検出する場合に、反応があったと判断する。第2参加者の反応があったと判断する場合、第1画像データをHDD17に記憶し、処理を選択画像設定処理に戻す。ステップS97が実行された後に、ステップS93が実行される場合、第1選択画像データに、第1カメラ35が出力する第1画像データに代えて、HDD17に記憶された第1画像データを設定する。これにより、第2会議室の第2参加者に影響を与えることのできる画像を視聴させることができる。
In step S96, it is determined whether or not there is a response from the second participant. The image data included in the video data received from the
また、第2参加者の反応がなかった場合、または第2参加者の反応の有無に係わらず、表示部27に注意を喚起するメッセージ、例えば、「第2会議室に視線を向けてください。」等を表示するようにしてもよい。これにより、第1参加者は、説明や議論が第3参加者側に偏っていることを知ることができ、第2参加者に対して話しかける等の対応が可能になる。
In addition, when there is no response from the second participant or regardless of whether or not the second participant responds, a message that calls attention to the
一方、ステップS98においては、第2会議室の表示領域情報によって処理を分岐させる。第2会議室の表示領域情報が第1表示領域ならば処理をステップS99に進めるが、第2会議室の表示領域情報が第2表示領域ならば処理をステップS100に進める。第2会議室の表示領域情報は、第2会議室に配置されたPC100Aが、第1会議室に配置されたPC100から受信される映像データに含まれる画像データ、換言すれば第1選択画像データを、表示部27Aの第1表示領域および第2表示領域のいずれに表示しているかを示す情報である。
On the other hand, in step S98, the process is branched according to the display area information of the second conference room. If the display area information of the second meeting room is the first display area, the process proceeds to step S99. If the display area information of the second meeting room is the second display area, the process proceeds to step S100. The display area information of the second meeting room is the image data included in the video data received from the
ステップS99においては、第1選択画像データに第2カメラ37が出力する第2画像データを設定し、処理を選択画像設定処理に戻す。ステップS100においては、第1選択画像データに第3カメラ39が出力する第3画像データを設定し、処理を選択画像設定処理に戻す。
In step S99, the second image data output from the
ステップS95においてタイマBがリセットされると、次にステップS91が実行される場合に、処理がステップS98に進む。このため、第1会議室の参加者の会話相手が第3会議室の参加者の状態がしきい値T1以上しきい値T2未満の間は、第1選択画像データに第1画像データが選択される。換言すれば、しきい値T2としきい値T1との差分の時間TM、第1画像データが選択される。さらに、タイマB値が、しきい値T2以上になると、タイマBがリセットされるので、第1会議室の参加者の会話相手が第3会議室の参加者である状態がしきい値T2以上継続する場合には、タイマB値がしきい値T1の間は第1選択画像データに第1カメラ35から入力される第1画像データを設定する処理(ステップS93)、その後の時間TMの間は第1選択画像データに第2または第3画像データを選択する処理(ステップS99、ステップS100)が繰り返えされる。
When timer B is reset in step S95, the process proceeds to step S98 when step S91 is executed next. For this reason, the first image data is selected as the first selected image data while the conversation partner of the participant in the first conference room is in the state of the participant in the third conference room is greater than or equal to the threshold value T1 Is done. In other words, the difference time TM between the threshold value T2 and the threshold value T1 and the first image data are selected. Further, when the timer B value becomes equal to or greater than the threshold value T2, the timer B is reset, so that the conversation partner of the first conference room participant is the third conference room participant or higher. When continuing, while the timer B value is the threshold value T1, the process of setting the first image data input from the
なお、ここでは第1参加者の会話相手が第3参加者の状態がしきい値T1以上継続すると、第1画像データを、第1選択画像データに設定するようにしたが、第1参加者の会話相手が第3参加者の状態が継続する時間を、ランダムな時間としてもよい。例えば、第1参加者の発話が中断した場合とすればよい。また、第1画像データを、第1選択画像データに設定する時間を時間TMとしたが、時間TMは、任意に定めることができ、第2参加者が第1画像データの画像を認識できる程度に短い時間であってもよい。 Here, the first image data is set as the first selected image data when the third participant's conversation with the first participant continues for the threshold value T1 or more, but the first participant The time during which the conversation partner is in the state of the third participant may be a random time. For example, the first participant's speech may be interrupted. Further, the time TM is set as the first image data in the first selected image data. However, the time TM can be arbitrarily determined, and the second participant can recognize the image of the first image data. It may be a short time.
図18は、第1参加者と第2参加者が会話しているときの第1〜第3会議室の表示状態の一例を示す図である。図18(A)は、第1会議室に配置される表示部27の画面の一例を示す図である。図18(A)を参照して、表示部27の第1表示領域に第2参加者の正面を撮像した画像が表示され、表示部27の第2表示領域に第3参加者の正面を撮像した画像が表示される。図18(B)は、第2会議室に配置される表示部27Aの画面の一例を示す図である。図18(B)を参照して、表示部27Aの第1表示領域に第1参加者の正面を撮像した画像が表示され、表示部27Aの第2表示領域に第3参加者の正面を撮像した画像が表示される。図18(C)は、第3会議室に配置される表示部27Bの画面の一例を示す図である。図18(C)を参照して、表示部27Bの第1表示領域に第2参加者の右側面を撮像した画像が表示され、表示部27Bの第2表示領域に第1参加者の左側面を撮像した画像が表示される。
FIG. 18 is a diagram illustrating an example of a display state of the first to third conference rooms when the first participant and the second participant are talking. FIG. 18A is a diagram illustrating an example of a screen of the
第1参加者と第2参加者が会話しているときは、第1参加者は、表示部27の第1表示領域に表示された第2参加者と視線が合い、第2参加者は、表示部27Aの第1表示領域に表示された第1参加者と視線が合う。また、第3参加者は、表示部27Bの第1表示領域に表示された第2参加者と、表示部27Bの第2表示領域に表示された第1参加者と、が会話していることを知ることができる。
When the first participant and the second participant are talking, the first participant is in line of sight with the second participant displayed in the first display area of the
図18(D)は、第1参加者と第2参加者が会話して所定時間T1経過後の第3会議室の表示状態の一例を示す第1の図である。図18(D)は、第1参加者と第2参加者が会話して所定時間T1経過後に、第1参加者が発話しているときに表示される画面の一例を示す。図18(D)を参照して、表示部27Bの第1表示領域に第2参加者の右側面を撮像した画像が表示され、表示部27Bの第2表示領域に第1参加者の正面を撮像した画像が表示される。このため、第3参加者は、発話している第1参加者が視線を自分の方に向けた画像を見ることになり、第1参加者からのノンバーバル情報が第3参加者に伝えられる。このため、第3参加者は、会議に集中することができる。
FIG. 18D is a first diagram illustrating an example of a display state of the third conference room after a predetermined time T1 has elapsed after the first participant and the second participant have a conversation. FIG. 18D shows an example of a screen displayed when the first participant speaks after the first participant and the second participant have talked and a predetermined time T1 has elapsed. Referring to FIG. 18D, an image obtained by imaging the right side surface of the second participant is displayed in the first display area of
図18(E)は、第1参加者と第2参加者が会話して所定時間T1経過後の第3会議室の表示状態の一例を示す第2の図である。図18(E)は、第1参加者と第2参加者が会話して所定時間T1経過後に、第2参加者が発話しているときに表示される画面の一例を示す。図18(E)を参照して、表示部27Bの第1表示領域に第2参加者の正面を撮像した画像が表示され、表示部27Bの第2表示領域に第1参加者の左側面を撮像した画像が表示される。このため、第3参加者は、発話している第2参加者が視線を自分の方に向けた画像を見ることになり、第2参加者からのノンバーバル情報が第3参加者に伝えられる。このため、第3参加者は、会議に集中することができる。
FIG. 18E is a second diagram illustrating an example of a display state of the third conference room after a predetermined time T1 has elapsed after the first participant and the second participant have a conversation. FIG. 18E shows an example of a screen displayed when the second participant speaks after the first participant and the second participant have talked and a predetermined time T1 has elapsed. Referring to FIG. 18E, an image obtained by imaging the front of the second participant is displayed in the first display area of
図19は、第1参加者と第3参加者が会話しているときの第1〜第3会議室の表示状態の一例を示す図である。図19(A)は、第1会議室に配置される表示部27の画面の一例を示す図である。図19(A)を参照して、表示部27の第1表示領域に第2参加者の正面を撮像した画像が表示され、表示部27の第2表示領域に第3参加者の正面を撮像した画像が表示される。図19(B)は、第2会議室に配置される表示部27Aの画面の一例を示す図である。図19(B)を参照して、表示部27Aの第1表示領域に第1参加者の右側面を撮像した画像が表示され、表示部27Aの第2表示領域に第3参加者の左側面を撮像した画像が表示される。図19(C)は、第3会議室に配置される表示部27Bの画面の一例を示す図である。図19(C)を参照して、表示部27Bの第1表示領域に第2参加者の正面を撮像した画像が表示され、表示部27Bの第2表示領域に第1参加者の正面を撮像した画像が表示される。
FIG. 19 is a diagram illustrating an example of a display state of the first to third conference rooms when the first participant and the third participant have a conversation. FIG. 19A is a diagram illustrating an example of a screen of the
第1参加者と第3参加者が会話しているときは、第1参加者は、表示部27の第2表示領域に表示された第3参加者と視線が合い、第3参加者は、表示部27Bの第2表示領域に表示された第1参加者と視線が合う。また、第2参加者は、表示部27Aの第1表示領域に表示された第1参加者と、表示部27Aの第2表示領域に表示された第3参加者と、が会話していることを知ることができる。
When the first participant and the third participant are talking, the first participant is in line of sight with the third participant displayed in the second display area of the
図19(D)は、第1参加者と第3参加者が会話して所定時間T1経過後の第2会議室の表示部の表示状態の一例を示す第1の図である。図19(D)は、第1参加者と第3参加者が会話して所定時間T1経過後に、第1参加者が発話しているときに表示される画面の一例を示す。図19(D)を参照して、表示部27Aの第1表示領域に第1参加者の正面を撮像した画像が表示され、表示部27Aの第2表示領域に第3参加者の左側面を撮像した画像が表示される。このため、第2参加者は、発話している第1参加者が視線を自分の方に向けた画像を見ることになり、第1参加者からのノンバーバル情報が第2参加者に伝えられる。このため、第2参加者は、会議に集中することができる。
FIG. 19D is a first diagram illustrating an example of a display state of the display unit of the second conference room after a predetermined time T1 has elapsed after the first participant and the third participant have a conversation. FIG. 19D shows an example of a screen displayed when the first participant speaks after the first participant and the third participant talk to each other after a predetermined time T1 has elapsed. Referring to FIG. 19D, an image obtained by capturing the front of the first participant is displayed in the first display area of
図19(E)は、第1参加者と第3参加者が会話して所定時間T1経過後の第2会議室の表示部の表示状態の一例を示す第2の図である。図19(E)は、第1参加者と第3参加者が会話して所定時間T1経過後に、第3参加者が発話しているときに表示される画面の一例を示す。図19(E)を参照して、表示部27Aの第1表示領域に第1参加者の右側面を撮像した画像が表示され、表示部27Aの第2表示領域に第3参加者の正面を撮像した画像が表示される。このため、第2参加者は、発話している第3参加者が視線を自分の方に向けた画像を見ることになり、第3参加者からのノンバーバル情報が第2参加者に伝えられる。このため、第2参加者は、会議に集中することができる。
FIG. 19E is a second diagram illustrating an example of the display state of the display unit of the second conference room after a predetermined time T1 has elapsed after the first participant and the third participant have a conversation. FIG. 19E shows an example of a screen displayed when the third participant speaks after the first participant and the third participant have talked and a predetermined time T1 has elapsed. Referring to FIG. 19E, an image of the right side of the first participant is displayed in the first display area of
図20は、第2参加者と第3参加者が会話しているときの第1〜第3会議室の表示状態の一例を示す図である。図20(A)は、第1会議室に配置される表示部27の画面の一例を示す図である。図20(A)を参照して、表示部27の第1表示領域に第2参加者の右側面を撮像した画像が表示され、表示部27の第2表示領域に第3参加者の左側面を撮像した画像が表示される。図20(B)は、第2会議室に配置される表示部27Aの画面の一例を示す図である。図20(B)を参照して、表示部27Aの第1表示領域に第1参加者の正面を撮像した画像が表示され、表示部27Aの第2表示領域に第3参加者の正面を撮像した画像が表示される。図20(C)は、第3会議室に配置される表示部27Bの画面の一例を示す図である。図20(C)を参照して、表示部27Bの第1表示領域に第2参加者の正面を撮像した画像が表示され、表示部27Bの第2表示領域に第1参加者の正面を撮像した画像が表示される。
FIG. 20 is a diagram illustrating an example of a display state of the first to third conference rooms when the second participant and the third participant are talking. FIG. 20A is a diagram illustrating an example of a screen of the
第2参加者と第3参加者が会話しているときは、第1参加者は、表示部27の第1表示領域に表示された第2参加者と、表示部27の第2表示領域に表示された第3参加者と、が会話していることを知ることができる。また、第2参加者は、表示部27Aの第2表示領域に表示された第3参加者と視線が合い、第3参加者は、表示部27Bの第1表示領域に表示された第2参加者と視線が合う。
When the second participant and the third participant are talking, the first participant is in the second participant displayed in the first display area of the
図20(D)は、第2参加者と第3参加者が会話して所定時間T1経過後の第1会議室の表示部の表示状態の一例を示す第1の図である。図20(D)は、第2参加者と第3参加者が会話して所定時間T1経過後に、第2会議室の第2参加者が発話しているときに表示される画面の一例を示す。図20(D)を参照して、表示部27の第1表示領域に第2参加者の正面を撮像した画像が表示され、表示部27の第2表示領域に第3参加者の左側面を撮像した画像が表示される。このため、第1参加者は、発話している第2参加者が視線を自分の方に向けた画像を見ることになり、第2参加者からのノンバーバル情報が第1参加者に伝えられる。このため、第1参加者は、会議に集中することができる。
FIG. 20D is a first diagram illustrating an example of a display state of the display unit of the first conference room after the second participant and the third participant have a conversation and the predetermined time T1 has elapsed. FIG. 20D shows an example of a screen displayed when the second participant in the second conference room speaks after the second participant and the third participant have talked and the predetermined time T1 has elapsed. . Referring to FIG. 20D, an image obtained by imaging the front of the second participant is displayed in the first display area of the
図20(E)は、第2参加者と第3参加者が会話して所定時間T1経過後の第1会議室の表示部の表示状態の一例を示す第2の図である。図20(E)は、第2参加者と第3参加者が会話して所定時間T1経過後に、第3参加者が発話しているときに表示される画面の一例を示す。図20(E)を参照して、表示部27の第1表示領域に第2参加者の右側面を撮像した画像が表示され、表示部27の第2表示領域に第3参加者の正面を撮像した画像が表示される。このため、第1参加者は、発話している第3参加者が視線を自分の方に向けた画像を見ることになり、第3参加者からのノンバーバル情報が第1参加者に伝えられる。このため、第1参加者は、会議に集中することができる。
FIG. 20E is a second diagram illustrating an example of a display state of the display unit of the first conference room after the second participant and the third participant have a conversation and the predetermined time T1 has elapsed. FIG. 20E shows an example of a screen displayed when the third participant speaks after the second participant and the third participant talk to each other for a predetermined time T1. Referring to FIG. 20E, an image obtained by capturing the right side surface of the second participant is displayed in the first display area of the
以上説明したように第2の実施の形態における会議システム1Aは、第1会議室の第1参加者が第2参加者と会話していると判断された場合に、第1カメラ35で第1参加者を撮像した第1画像データが第1選択画像データとして選択され、第3参加者と会話していると判断された場合に、第2および第3カメラ37,39それぞれで第1参加者を撮像した第2画像データおよび第3画像データのいずれか一方が第1選択画像データとして選択され、第1会議室の第1参加者が第3参加者と会話していると判断される状態が所定時間T1継続すると、第1画像データが所定時間T2第1選択画像データとして選択され、選択された第1選択画像データが第2会議室に配置されたPC100Aに送信される。また、第1会議室の第1参加者が第3参加者と会話していると判断された場合に、第1カメラ35で第1参加者を撮像した第1画像データが第2選択画像データとして選択され、一方の会議室の参加者と会話していると判断された場合に、第2および第3カメラ37,39それぞれで第1参加者を撮像した第2画像データおよび第3画像データのいずれか一方が第2選択画像データとして選択され、第1会議室の第1参加者が第2参加者と会話していると判断される状態が所定時間T1継続すると、第1画像データが所定時間T2第2選択画像データとして選択され、選択された第2選択画像データが第3会議室に配置されたPC100Bに送信される。このため、参加者に向かう第1の方向で参加者を撮像した第1画像データを見る第2または第3参加者は、第1会議室の第1参加者と視線が合うが、第2または第3画像データを見る第2または第3会議室の参加者は、第1会議室の参加者と視線が合わない。第1参加者が第3参加者と会話していると判断される状態では、第2参加者は第1参加者と視線が合わないが、その状態が所定時間T1継続すると、第1画像データが所定時間T2第1会議室に配置されたPC100Aに送信されるので、第2参加者は第1参加者と所定時間T2視線が合う。また、第1参加者が第2参加者と会話していると判断される状態では、第3参加者は第1会議室の参加者と視線が合わないが、その状態が所定時間T1継続すると、第1画像データが所定時間T2第3会議室に配置されたPC100Bに送信されるので、第3参加者は第1参加者と所定時間T2視線が合う。このため、第1参加者から第2または第3参加者のいずれかにノンバーバル情報が伝達されていないときに、ノンバーバル情報を伝達することができる。
As described above, the
また、第1参加者が第3参加者と会話していると判断された場合に、第2会議室に配置されたPC100Aから受信される表示領域情報が第1表示領域を示す場合は第2画像データが第1選択画像データとして選択され、PC100Aから受信される表示領域情報が第2表示領域を示す場合は第3画像データが第1選択画像データとして選択され、選択された第1選択画像データが第2会議室に配置されたPC100Aに送信される。また、第1参加者が第2参加者と会話していると判断された場合に、第3会議室に配置されたPC100Bから受信される表示領域情報が第1表示領域を示す場合は第2画像データが第2選択画像データとして選択され、PC100Bから受信される表示領域情報が第2表示領域を示す場合は第3画像データが第2選択画像データとして選択され、選択された第2選択画像データが第3会議室に配置されたPC100Bに送信される。このため、第1〜第3参加者それぞれは、他の2つの会議室の参加者が会話している間は、他の2つの会議室の二人の参加者が向かい合って会話する画像を見ることができる。
Further, when it is determined that the first participant is talking to the third participant, the second is displayed when the display area information received from the
また、第2会議室に配置されたPC100Aに送信する第1選択画像データとして、第2画像データおよび第3画像データのいずれか一方を選択しているとき、第3会議室の第3参加者と会話していると判断される状態が所定時間T1継続すると、第1参加者が発話していると判断されることを条件に、第1画像データが所定時間T2第1選択画像データとして選択され、第2会議室に配置されたPC100Aに送信される。また、第3会議室に配置されたPC100Bに送信する第2選択画像データとして、第2画像データおよび第3画像データのいずれか一方を選択しているとき、第1参加者と会話していると判断される状態が所定時間T1継続すると、第1参加者が発話していると判断されることを条件に、第1画像データが所定時間T2第2選択画像データとして選択され、第3会議室に配置されたPC100Bに送信される。このため、第2会議室の参加者は、第1および第3会議室の参加者が会話しているときは、二人の参加者が向かい合って会話する画像を見るが、その状態が所定時間T1継続すると、第1または第3参加者いずれかが発話していれば、第1または第3参加者のうち発話している参加者と視線が合う画像を見ることになる。また、第3参加者は、第1および第2参加者が会話しているときは、二人の参加者が向かい合って会話する画像を見るが、その状態が所定時間T1継続すると、第1または第2参加者が発話していれば、第1または第2参加者のうち発話している参加者と視線が合う画像を見ることになる。さらに、第1参加者は、第2および第3参加者が会話しているときは、二人の参加者が向かい合って会話する画像を見るが、その状態が所定時間T1継続すると、第2または第3参加者が発話していれば、第2または第3参加者のうち発話している参加者と視線が合う画像を見ることになる。このため、3つの第1〜第3参加者それぞれは、他の2つの会議室の参加者が会話している間は、他の2つの会議室の二人の参加者が向かい合って会話する画像を見るが、他の2つの会議室の参加者が会話している状態が所定時間T1継続すると、他の2つの会議室の参加者のうち発話している参加者と視線が合う画像を、所定時間T2見ることができる。
Further, when one of the second image data and the third image data is selected as the first selected image data to be transmitted to the
また、3つの第1〜第3会議室それぞれは、さらに、音声を集音するマイクロホン31が配置され、PC100,100A,100Bそれぞれは、マイクロホン31をさらに制御し、マイクロホン31が出力する音データに基づいて、参加者が発話しているか否かを判断する。PC100は、検出された第1参加者の視線方向が第1表示領域に向かい、かつ、第1参加者が発話していると判断される場合に第2参加者に発話していると判定し、検出された第1参加者の視線方向が第2表示領域に向かい、かつ、第1参加者が発話していると判断される場合に第3参加者に発話していると判定する。このため、発話しているか否かの判断を、視線方向と発話していることとで判断するので、正確に会話相手を特定することができる。
In addition, each of the three first to third conference rooms is further provided with a
なお、上述した第1の実施の形態においては、制御手段の一例としてPC100,100A〜100Fを説明したが、図4に示した処理をPC100,100A〜100Fそれぞれに実行させるための表示制御方法または、その表示制御方法をコンピュータに実行させるための表示制御プログラムとして発明を捉えることができるのは言うまでもない。また、上述した第2の実施の形態においては、制御手段の一例としてPC100,100A,100Bを説明したが、図12〜図17に示した処理をPC100,100A,100Bそれぞれに実行させるための表示制御方法または、その表示制御方法をコンピュータに実行させるための表示制御プログラムとして発明を捉えることができるのは言うまでもない。
In the first embodiment described above, the
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1,1A 会議システム、3 ネットワーク、11 CPU、13 ROM、15 RAM、17 HDD、18 メモリカード、19 カードI/F、21 通信I/F、23 ユーザインターフェース、25 操作部、27 表示部、29 外部I/F、31 マイクロホン、33 スピーカ、35 カメラ、35,37,39 第1〜第3カメラ、51,51A 画像データ取得部、53,53A 音データ取得部、55,55A 視線方向検出部、57,57A 視線画像記憶部、57A 視線画像記憶部、59,59A 選択部、61,61A 映像データ送信部、63,63A 映像データ受信部、65,65A 表示制御部、67,67A 音声制御部、71 発話検出部、73 第1選択部、75 視線方向検出部、77 第2選択部、79 発話相手判定部、81 第1会議室情報送信部、83 第2会議室情報送信部、85 第1会議室情報受信部、87 第2会議室情報受信部、89 会話相手判断部、91 表示制御部、93 音声制御部、101 視線画像データ。
1, 1A conference system, 3 network, 11 CPU, 13 ROM, 15 RAM, 17 HDD, 18 memory card, 19 card I / F, 21 communication I / F, 23 user interface, 25 operation unit, 27 display unit, 29 External I / F, 31 microphone, 33 speaker, 35 camera, 35, 37, 39 1st to 3rd camera, 51, 51A image data acquisition unit, 53, 53A sound data acquisition unit, 55, 55A gaze direction detection unit, 57, 57A line-of-sight image storage unit, 57A line-of-sight image storage unit, 59, 59A selection unit, 61, 61A video data transmission unit, 63, 63A video data reception unit, 65, 65A display control unit, 67, 67A audio control unit, 71 utterance detection unit, 73 first selection unit, 75 gaze direction detection unit, 77 second selection unit, 79 utterance partner determination unit, 81 first Conference room information transmission unit, 83 Second conference room information transmission unit, 85 First conference room information reception unit, 87 Second conference room information reception unit, 89 Conversation partner determination unit, 91 Display control unit, 93 Voice control unit, 101 Eye-gaze image data.
Claims (7)
前記複数の会議室それぞれに、
画像を表示する表示手段と、
前記表示手段側から該会議室に存在する参加者に向かう被写体方向で参加者を撮像する撮像手段と、
前記表示手段および前記撮像手段を制御する制御手段と、が配置され、
前記複数の会議室は、発表者が参加する第1会議室と、参加者が参加する少なくとも1つの第2会議室とを含み、
前記第1会議室に配置される前記制御手段は、
前記撮像手段が出力する画像データに基づいて、発表者の視線方向を検出する視線方向検出手段と、
前記視線検出手段により発表者の視線が前記表示手段を向く方向が検出されている間に、前記撮像手段が出力する画像データを記憶する視線画像記憶手段と、
前記撮像手段が出力する画像データおよび前記記憶手段に記憶された画像データのうちいずれか一方を選択する選択手段と、
前記選択手段により選択された画像データを含む映像データを、前記少なくとも1つの第2会議室それぞれに配置された前記制御手段に送信する映像データ送信手段と、を備え、
前記選択手段は、前記撮像手段が出力する画像データを選択しているときに、前記視線検出手段により検出された視線方向が前記表示手段を向く方向でない状態が所定時間継続すると、前記記憶手段に記憶された画像データを選択し、
前記第2会議室に配置される前記制御手段は、
前記第1会議室に配置された前記制御手段から映像データを受信する映像データ受信手段と、
前記映像データ受信手段により受信される映像データに含まれる画像データの画像を前記表示手段に表示させる表示制御手段と、を備える会議システム。 A conference system that generates a virtual conference room using a plurality of images obtained by imaging a plurality of geographically separated conference rooms,
In each of the plurality of conference rooms,
Display means for displaying an image;
Imaging means for imaging a participant in a subject direction toward the participant existing in the conference room from the display means;
And a control means for controlling the display means and the imaging means,
The plurality of conference rooms include a first conference room in which a presenter participates, and at least one second conference room in which participants participate,
The control means arranged in the first conference room includes:
Gaze direction detection means for detecting the gaze direction of the presenter based on the image data output by the imaging means;
Line-of-sight image storage means for storing image data output by the imaging means while the direction in which the presenter's line of sight faces the display means is detected by the line-of-sight detection means;
Selecting means for selecting any one of the image data output by the imaging means and the image data stored in the storage means;
Video data transmission means for transmitting video data including the image data selected by the selection means to the control means arranged in each of the at least one second conference room,
When the selection means selects the image data output by the imaging means, and the state where the line-of-sight direction detected by the line-of-sight detection means is not in the direction facing the display means continues for a predetermined time, the selection means Select the stored image data,
The control means arranged in the second conference room includes:
Video data receiving means for receiving video data from the control means arranged in the first conference room;
And a display control means for causing the display means to display an image of image data included in the video data received by the video data receiving means.
前記3つの会議室それぞれに、
2つの表示領域を含む表示手段と、
前記表示手段側から該会議室に参加する参加者に向かう第1の方向で参加者を撮像する第1撮像手段と、
前記第1の方向と交わる第2の方向で参加者を撮像する第2撮像手段と、
前記第2の方向と逆の第3の方向で参加者を撮像する第3撮像手段と、
前記表示手段および前記第1〜第3撮像手段を制御する制御手段と、が配置され、
前記制御手段は、前記第1撮像手段が出力する第1画像データに基づいて、参加者の視線方向が前記第1表示領域に向かう第1視線方向または前記第2表示領域に向かう第2視線方向であるかを検出する視線方向検出手段と、
前記視線方向検出手段による検出結果に基づいて、前記参加者が発話する相手を判定する発話相手判定手段と、
前記第1〜第3撮像手段がそれぞれ出力する第1〜第3画像データのうちから1つの第1選択画像データを選択する第1選択手段と、
前記第1〜第3撮像手段がそれぞれ出力する第1〜第3画像データのうちから1つの第2選択画像データを選択する第2選択手段と、
前記第1選択画像データを含む映像データと、前記発話相手判定手段により判定された発話相手を示す第1発話相手情報と、を他の2つの会議室のうち一方の会議室に配置された前記制御手段に送信する第1会議情報送信手段と、
前記第2選択画像データを含む映像データと前記第1発話相手情報と、を前記他の2つの会議室のうち前記一方の会議室とは異なる他方の会議室に配置された前記制御手段に送信する第2会議情報送信手段と、
前記一方の会議室に配置された前記制御手段から映像データと前記一方の会議室の参加者が発話する相手を示す第2発話相手情報とを受信する第1会議情報受信手段と、
前記他方の会議室に配置された前記制御手段から映像データと前記他方の会議室の参加者が発話する相手を示す第3発話相手情報とを受信する第2会議情報受信手段と、
前記一方の会議室に配置された前記制御手段から受信される映像データに含まれる画像データを前記第1表示領域に表示し、前記他方の会議室に配置された前記制御手段から受信される映像データに含まれる画像データを前記第2表示領域に表示させるように前記表示手段を制御する表示制御手段と、
前記第1〜第3発話相手情報に基づいて、参加者が、前記他の2つの会議室のいずれの参加者と会話しているかを判断する会話相手判断手段と、を備え、
前記発話相手判定手段は、前記視線方向検出手段により検出された視線方向が、前記第1表示領域に向かう場合に前記一方の会議室の参加者に発話していると判定し、前記視線方向検出手段により検出された視線方向が、前記第2表示領域に向かう場合に前記他方の会議室の参加者に発話していると判定し、
前記第1選択手段は、前記会話相手判断手段により前記一方の会議室の参加者と会話していると判断された場合に、前記第1画像データを選択し、前記会話相手判断手段により前記他方の会議室の参加者と会話していると判断された場合に、前記第2画像データおよび前記第3画像データのいずれか一方を選択し、前記他方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、前記第1画像データを第2の所定時間選択し、
前記第2選択手段は、前記会話相手判断手段により前記他方の会議室の参加者と会話していると判断された場合に、前記第1画像データを選択し、前記会話相手判断手段により前記一方の会議室の参加者と会話していると判断された場合に、前記第2画像データおよび前記第3画像データのいずれか一方を選択し、前記一方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、前記第1画像データを第2の所定時間選択する、会議システム。 A conference system that generates a virtual conference room using a plurality of images obtained by capturing three geographically separated conference rooms,
In each of the three meeting rooms,
Display means including two display areas;
First imaging means for imaging a participant in a first direction toward the participant participating in the conference room from the display means side;
Second imaging means for imaging the participant in a second direction intersecting the first direction;
Third imaging means for imaging the participant in a third direction opposite to the second direction;
And a control means for controlling the display means and the first to third imaging means,
The control means is based on the first image data output from the first imaging means, and the participant's line-of-sight direction is the first line-of-sight direction toward the first display area or the second line-of-sight direction toward the second display area. Gaze direction detection means for detecting whether or not
Based on the detection result by the line-of-sight direction detection means, the utterance partner determination means for determining the partner with whom the participant speaks;
First selection means for selecting one first selection image data from the first to third image data output from the first to third imaging means, respectively;
Second selection means for selecting one second selection image data from the first to third image data output by the first to third imaging means, respectively;
The video data including the first selected image data and the first utterance partner information indicating the utterance partner determined by the utterance partner determination unit are arranged in one of the other two conference rooms. First conference information transmitting means for transmitting to the control means;
The video data including the second selected image data and the first utterance partner information are transmitted to the control means disposed in the other conference room different from the one of the other two conference rooms. Second meeting information transmitting means for
First conference information receiving means for receiving video data and second utterance partner information indicating a partner uttered by a participant in the one conference room from the control means disposed in the one conference room;
Second conference information receiving means for receiving video data and third utterance partner information indicating a partner uttered by a participant in the other conference room from the control means disposed in the other conference room;
Image data included in video data received from the control means arranged in the one conference room is displayed in the first display area, and video received from the control means arranged in the other conference room Display control means for controlling the display means to display image data included in the data in the second display area;
A conversation partner judging means for judging, based on the first to third speech partner information, which participant is talking with which participant in the other two conference rooms,
The speaking partner determination unit determines that the line of sight detected by the line-of-sight direction detection unit is speaking to a participant in the one conference room when the line-of-sight direction is directed to the first display area, and the line-of-sight direction detection Determining that the line-of-sight direction detected by the means is speaking to a participant in the other conference room when heading toward the second display area;
The first selection unit selects the first image data when the conversation partner determination unit determines that the conversation partner is speaking with a participant in the one conference room, and the conversation partner determination unit selects the other image data. When it is determined that the user is talking with a participant in the other conference room, the user selects either the second image data or the third image data and is talking with the participant in the other conference room. When the state determined to be continued for a first predetermined time, the first image data is selected for a second predetermined time,
The second selection unit selects the first image data when the conversation partner determination unit determines that the conversation partner determination unit is speaking with the other conference room participant, and the conversation partner determination unit selects the one of the first image data. When it is determined that the user is talking with a participant in the other conference room, the user selects either the second image data or the third image data and is talking with the participant in the one conference room. When the state determined to be continued for a first predetermined time, the conference system selects the first image data for a second predetermined time.
前記第1表示領域と前記第2表示領域とは左右に並んで配置され、
前記制御手段は、前記表示制御手段が前記一方の会議室に配置された前記制御手段から受信される映像データに含まれる画像データを前記第1表示領域に表示していることを示す表示領域情報を前記一方の会議室に配置された前記制御手段に送信する第1表示領域情報送信手段と、
前記表示制御手段が前記他方の会議室に配置された前記制御手段から受信される映像データに含まれる画像データを前記第2表示領域に表示していることを示す表示領域情報を前記他方の会議室に配置された前記制御手段に送信する第2表示領域情報送信手段と、を備え、
前記第1選択手段は、前記会話相手判断手段により前記他方の会議室の参加者と会話していると判断された場合に、前記一方の会議室に配置された前記制御手段から受信される表示領域情報が第1表示領域を示す場合は前記第2画像データを選択し、前記一方の会議室に配置された前記制御手段から受信される表示領域情報が第2表示領域を示す場合は前記第3画像データを選択し、
前記第2選択手段は、前記会話相手判断手段により前記一方の会議室の参加者と会話していると判断された場合に、前記他方の会議室に配置された前記制御手段から受信される表示領域情報が第1表示領域を示す場合は前記第2画像データを選択し、前記一方の会議室に配置された前記制御手段から受信される表示領域情報が第2表示領域を示す場合は前記第3画像データを選択する、請求項3に記載の会議システム。 The first imaging means is arranged so as to have an angle of view for photographing the participant from the front, and the second imaging means is arranged so as to obtain an angle of view for photographing from the right side of the participant. The imaging means is arranged to have an angle of view from the left side of the participant,
The first display area and the second display area are arranged side by side,
Display area information indicating that the control means is displaying image data included in video data received from the control means disposed in the one conference room in the first display area. First display area information transmitting means for transmitting the information to the control means arranged in the one conference room;
Display area information indicating that the display control means is displaying image data included in video data received from the control means disposed in the other conference room in the second display area. Second display area information transmitting means for transmitting to the control means disposed in a room,
The first selection means is a display received from the control means arranged in the one conference room when the conversation partner judgment means judges that the conversation partner is talking to a participant in the other conference room. When the area information indicates the first display area, the second image data is selected, and when the display area information received from the control means arranged in the one conference room indicates the second display area, the second image data is selected. 3 Select image data,
The second selection means is a display received from the control means disposed in the other conference room when the conversation partner judgment means judges that the conversation partner is talking to a participant in the one conference room. When the area information indicates the first display area, the second image data is selected, and when the display area information received from the control means arranged in the one conference room indicates the second display area, the second image data is selected. The conference system according to claim 3, wherein three image data is selected.
音声を集音するマイクロホンが配置され、
前記制御手段は、前記マイクロホンを、さらに制御し、
前記マイクロホンが出力する音データに基づいて、参加者が発話しているか否かを判断する発話検出手段を、さらに備え、
前記第1選択手段は、前記第2画像データおよび前記第3画像データのいずれか一方を選択しているとき、前記他方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、前記発話検出手段により参加者が発話していると判断されることを条件に、前記第1画像データを第2の所定時間選択し、
前記第2選択手段は、前記第2画像データおよび前記第3画像データのいずれか一方を選択しているとき、前記一方の会議室の参加者と会話していると判断される状態が第1の所定時間継続すると、前記発話検出手段により参加者が発話していると判断されることを条件に、前記第1画像データを第2の所定時間選択する、請求項3または4に記載の会議システム。 Each of the three meeting rooms further includes
A microphone that collects sound is placed,
The control means further controls the microphone,
Utterance detection means for determining whether or not the participant is speaking based on the sound data output from the microphone, further comprising:
When the first selection means selects either the second image data or the third image data, a state in which it is determined that the first selection means is talking to a participant in the other conference room is the first. The first image data is selected for a second predetermined time on condition that the participant is determined to be speaking by the utterance detection means.
When the second selection means selects either the second image data or the third image data, a state in which it is determined that the second selection means is talking with a participant in the one conference room is the first. 5. The conference according to claim 3, wherein the first image data is selected for a second predetermined time on condition that the participant is determined to be speaking by the utterance detection unit when the predetermined time continues. system.
音声を集音するマイクロホンが配置され、
前記制御手段は、前記音声出力装置および前記マイクロホンを、さらに制御し、
前記マイクロホンが出力する音データに基づいて、参加者が発話しているか否かを判断する発話検出手段を、さらに備え、
前記発話相手判定手段は、前記視線方向検出手段により検出された視線方向が、前記第1表示領域に向かい、かつ、前記参加者が発話していると判断される場合に前記一方の会議室の参加者に発話していると判定し、前記視線方向検出手段により検出された視線方向が、前記第2表示領域に向かい、かつ、前記参加者が発話していると判断される場合に前記他方の会議室の参加者に発話していると判定する、請求項3または4に記載の会議システム。 Each of the three meeting rooms further includes
A microphone that collects sound is placed,
The control means further controls the audio output device and the microphone,
Utterance detection means for determining whether or not the participant is speaking based on the sound data output from the microphone, further comprising:
The utterance partner determination unit determines whether the sight line direction detected by the sight line direction detection unit is directed to the first display area and the participant is speaking. When it is determined that the participant is speaking and the line-of-sight direction detected by the line-of-sight direction detection unit is directed to the second display area and the participant is speaking, the other The conference system according to claim 3, wherein the conference system determines that the user is speaking to a participant in the conference room.
音声を出力する音声出力装置が配置され、
前記制御手段は、前記音声出力装置を、さらに制御し、
前記音声出力装置に出力する音声制御手段を、さらに備え、
前記第1会議情報送信手段は、前記第1選択画像データと前記マイクロホンが出力する音データとを含む映像データと、前記発話相手判定手段により判定された発話相手を示す第1発話相手情報と、を前記一方の会議室に配置された前記制御手段に送信し、
前記第2会議情報送信手段は、前記第2選択画像データと前記マイクロホンが出力する音データとを含む映像データと前記第1発話相手情報と、を前記他方の会議室に配置された前記制御手段に送信し、
前記音声制御手段は、前記一方の会議室に配置された前記制御手段から受信される映像データに含まれる音データと、前記他方の会議室に配置された前記制御手段から受信される映像データに含まれる音データと、を前記音声出力装置に出力する、請求項5または6に記載の会議システム。 Each of the three meeting rooms further includes
An audio output device that outputs audio is arranged,
The control means further controls the audio output device,
A voice control means for outputting to the voice output device;
The first conference information transmission means includes video data including the first selected image data and sound data output from the microphone, first utterance partner information indicating the utterance partner determined by the utterance partner determination means, To the control means arranged in the one conference room,
The second meeting information transmitting means includes the control means arranged in the other meeting room for video data including the second selected image data and sound data output from the microphone and the first utterance partner information. To
The audio control means includes sound data included in video data received from the control means arranged in the one conference room and video data received from the control means arranged in the other conference room. The conference system according to claim 5 or 6, wherein the audio data included is output to the audio output device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010259425A JP2012114511A (en) | 2010-11-19 | 2010-11-19 | Conference system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010259425A JP2012114511A (en) | 2010-11-19 | 2010-11-19 | Conference system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012114511A true JP2012114511A (en) | 2012-06-14 |
Family
ID=46498289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010259425A Pending JP2012114511A (en) | 2010-11-19 | 2010-11-19 | Conference system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012114511A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016178355A (en) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | Communication device, communication system, communication device control method, and program |
JP7062126B1 (en) | 2021-11-01 | 2022-05-02 | 株式会社バーチャルキャスト | Terminals, information processing methods, programs, and recording media |
JP2022109025A (en) * | 2021-01-14 | 2022-07-27 | Necパーソナルコンピュータ株式会社 | On-line lesson system, on-line lesson method, and program |
-
2010
- 2010-11-19 JP JP2010259425A patent/JP2012114511A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016178355A (en) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | Communication device, communication system, communication device control method, and program |
JP2022109025A (en) * | 2021-01-14 | 2022-07-27 | Necパーソナルコンピュータ株式会社 | On-line lesson system, on-line lesson method, and program |
JP7266622B2 (en) | 2021-01-14 | 2023-04-28 | Necパーソナルコンピュータ株式会社 | Online class system, online class method and program |
JP7062126B1 (en) | 2021-11-01 | 2022-05-02 | 株式会社バーチャルキャスト | Terminals, information processing methods, programs, and recording media |
WO2023074898A1 (en) * | 2021-11-01 | 2023-05-04 | 株式会社ドワンゴ | Terminal, information processing method, program, and recording medium |
JP2023067360A (en) * | 2021-11-01 | 2023-05-16 | 株式会社バーチャルキャスト | Terminal, information processing method, program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8614735B2 (en) | Video conferencing | |
CN104580992B (en) | A kind of control method and mobile terminal | |
US8237771B2 (en) | Automated videography based communications | |
US8274544B2 (en) | Automated videography systems | |
US20100118112A1 (en) | Group table top videoconferencing device | |
JP7427408B2 (en) | Information processing device, information processing method, and information processing program | |
JP4912184B2 (en) | Video surveillance system and video surveillance method | |
CN116614598A (en) | Video conference picture adjusting method, device, electronic equipment and medium | |
JP2012114511A (en) | Conference system | |
CN111163280B (en) | Asymmetric video conference system and method thereof | |
JP6149433B2 (en) | Video conference device, video conference device control method, and program | |
WO2022262134A1 (en) | Image display method, apparatus and device, and storage medium | |
US20140253670A1 (en) | Information processing device, display control system, and computer program product | |
WO2022007681A1 (en) | Photographing control method, mobile terminal, and computer readable storage medium | |
JP2009060220A (en) | Communication system and communication program | |
TWI248021B (en) | Method and system for correcting out-of-focus eyesight of attendant images in video conferencing | |
JP2004248125A (en) | Device and method for switching video, program for the method, and recording medium with the program recorded thereon | |
JP6191333B2 (en) | Information processing apparatus, communication system, and program | |
TWI799048B (en) | Panoramic video conference system and method | |
US20140233916A1 (en) | Integrating selected video frames into a social feed | |
TW202423109A (en) | Host-end video device, client-end video device and video conference system | |
CN114040145B (en) | Video conference portrait display method, system, terminal and storage medium | |
US20240179390A1 (en) | Participant Video Communication Devices as Host and Attendee, and Video Conferencing System | |
JP2000244885A (en) | Image photographing device, method therefor, storage medium and video conference system | |
KR20220057439A (en) | Face tracking method based on face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20130417 |