JPH04237288A - Audio signal output method for plural-picture window display - Google Patents

Audio signal output method for plural-picture window display

Info

Publication number
JPH04237288A
JPH04237288A JP3005243A JP524391A JPH04237288A JP H04237288 A JPH04237288 A JP H04237288A JP 3005243 A JP3005243 A JP 3005243A JP 524391 A JP524391 A JP 524391A JP H04237288 A JPH04237288 A JP H04237288A
Authority
JP
Japan
Prior art keywords
window
screen
video
audio
speakers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3005243A
Other languages
Japanese (ja)
Other versions
JP3036088B2 (en
Inventor
Yuichi Fujino
雄一 藤野
Naofumi Inmaki
印牧 直文
Kazunori Shimamura
和典 島村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP3005243A priority Critical patent/JP3036088B2/en
Publication of JPH04237288A publication Critical patent/JPH04237288A/en
Application granted granted Critical
Publication of JP3036088B2 publication Critical patent/JP3036088B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PURPOSE:To display plural participants simultaneously in a video conference system and to easily identify each talker. CONSTITUTION:In the video conference system interconnecting points A, B, C, D, a multi-window system is adopted for a monitor 21 for a participant 11 at the pint A and windows 25, 26, 27 are arranged laterally to the screen 22 and images 16, 19, 28 of participants of the points B, C, D are displayed respectively onto the windows 25, 26, 27. Speakers 42, 43 are provided respectively to the right and left of the monitor 21 and a voice of the participant at the point B corresponds to the horizontal position of the participant image 16 on the screen 22 and an output level ratio of the speakers 42, 43 is selected to be 100:0, then as if the voice were generated from the participant image 16 and a voice of the participant at the point C corresponds to the horizontal position of the participant image 19 on the screen 22 and an output level ratio of the speakers 42, 43 is selected to be 50:50, then as if the voice were generated from the participant image 19.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】この発明は例えばテレビ会議装置
や親子画面方式などの1画面に複数のウインドウを設け
、そのウインドウに各別の画像を表示する場合における
その画像と付随した音声、音楽などの音信号の出力方法
に関する。
[Industrial Application Field] This invention is applicable to, for example, when a plurality of windows are provided on one screen of a TV conference device or a parent-child screen system, and each window displays a different image, the sound and music associated with the image are displayed. This invention relates to a sound signal output method.

【0002】0002

【従来の技術】テレビ会議システムや多地点間接続され
たテレビ電話で複数の者が同時に会話する、一種のテレ
ビ会議における表示は、従来においては1台の表示装置
に切替えて表示していた。つまり例えば地点A,B,C
,Dの4地点間接続されたテレビ会議システムで1台の
モニタに切り替えて表示する場合、図5に示すように地
点Aの参加者11はカメラ12にて撮像され、その撮像
出力は制御装置13、通信回線14を介して地点B,C
,Dの各通信相手に送信される。また、地点Aの参加者
11は、表示モニタ15を使用して、例えば地点Bの参
加者の像16を見ることができる。ここで、地点C,D
の参加者を見たい場合には制御装置13を介して表示モ
ニタ15に表示されている画像を地点C,Dからの画像
に切り替えて表示することにより見ることができる。 また、音声は地点B,C,Dの音声を制御装置13によ
りミキシングしてスピーカ17に出力される。この方式
では、地点A,B,C,Dから入力される音声をミキシ
ングにより出力するために、出力されている音声がどの
参加者の音声なのかを認識できない欠点がある。
2. Description of the Related Art Conventionally, displays in a type of video conference in which a plurality of people converse at the same time using a video conference system or a video telephone connected between multiple points have been displayed by switching to a single display device. For example, points A, B, C
, D, when switching to one monitor for display in a video conference system connected between four points, the participant 11 at point A is imaged by the camera 12 as shown in FIG. 5, and the image output is sent to the control device. 13. Points B and C via communication line 14
, D to each communication partner. Furthermore, the participant 11 at point A can use the display monitor 15 to view the image 16 of the participant at point B, for example. Here, points C and D
If you want to see the participants, you can do so by switching the images displayed on the display monitor 15 to images from points C and D via the control device 13. Further, the audio at points B, C, and D is mixed by the control device 13 and output to the speaker 17. In this method, since the voices input from points A, B, C, and D are output by mixing, there is a drawback that it is not possible to recognize which participant's voice is being outputted.

【0003】また従来において、1地点に複数のモニタ
を設けて、各別の地点からの像を表示する方式もあった
。図6は地点A,B,C,Dの4地点間接続されたテレ
ビ会議システムで2台のモニタに通信相手画像を表示す
る方式を示し、地点Aでは表示モニタ15の他に表示モ
ニタ18を並べて設け、この表示モニタ18に地点Cか
らの画像信号を表示させる。このようにして地点B,C
の参加者の像16,19を見ることができる。
[0003] Also, in the past, there has been a system in which a plurality of monitors are provided at one point and images from each different point are displayed. FIG. 6 shows a method of displaying images of communication partners on two monitors in a video conference system connected between four points A, B, C, and D. At point A, a display monitor 18 is used in addition to the display monitor 15. They are arranged side by side, and the image signal from point C is displayed on this display monitor 18. In this way, points B and C
Images 16 and 19 of the participants can be seen.

【0004】地点Dの参加者の像を見たい場合には、表
示モニタ16または18の映像を切り替えて地点Dの参
加者の像を表示する。また、音声は地点B,C,Dの音
声を制御装置13によりミキシングしてスピーカ17か
ら出力される。この従来方式では、1台のモニタで切り
替えて表示する場合と同様に、地点A,B,C,Dから
入力される音声をミキシングにより出力するために、出
力されている音声がどの参加者の音声なのかを認識でき
ない同じ欠点がある。
[0004] When it is desired to see the image of the participant at point D, the image on the display monitor 16 or 18 is switched to display the image of the participant at point D. Furthermore, the audio from points B, C, and D is mixed by the control device 13 and output from the speaker 17 . In this conventional method, the audio input from points A, B, C, and D is output by mixing, similar to when switching and displaying on one monitor. It has the same drawback of not being able to recognize whether it is a voice or not.

【0005】更に従来において、1画面全体を1つのウ
インドウとしてこれに画像を表示すると共にその画面(
ウインドウ)の一部に他の小ウインドウを設け、この小
ウインドウに他の画像を表示するいわゆる親子画面表示
方式においては、音声又は音楽などの音信号については
その一方のウインドウに付随するものを切り替えてスピ
ーカより出力するか、両ウインドウに付随する両音信号
を単純にミキシングしてスピーカより出力しているため
、両者を聞き分けることができなかった。
[0005] Furthermore, conventionally, an entire screen is treated as one window and an image is displayed on it, and the screen (
In the so-called parent-child screen display method, in which another small window is provided as a part of a window) and another image is displayed in this small window, the sound signals such as audio or music that are attached to one of the windows are switched. Either the two sound signals associated with both windows are simply mixed and output from the speaker, making it impossible to distinguish between the two.

【0006】[0006]

【課題を解決するための手段】この発明によれば複数の
ウインドウを設けて各別の画像を1画面に同時に表示す
る表示装置のその画面の周辺に複数のスピーカを分散配
置し、これらスピーカに、これらからウインドウまでの
距離に応じて逆比例的に、そのウインドウに付随した音
信号を分配して音信号を出力する。
[Means for Solving the Problems] According to the present invention, a plurality of speakers are distributed around the screen of a display device that is provided with a plurality of windows and displays different images on one screen at the same time. , and output the sound signal by distributing the sound signal associated with the window in inverse proportion to the distance from these to the window.

【0007】[0007]

【実施例】図1に地点A,B,C,Dの4地点間接続さ
れたテレビ会議システムにこの発明を適用した実施例を
示す。つまり図1は地点Aに設けられた装置であって、
表示モニタ21はいわゆるマルチウインドウ表示方式の
ものであって、その画面22に複数の動画ウインドウ2
3,24,25が設けられ、これらウインドウ23,2
4,25にそれぞれ地点B,C,Dの各参加者像16,
19,28が表示される。
Embodiment FIG. 1 shows an embodiment in which the present invention is applied to a video conference system connected between four points A, B, C, and D. In other words, FIG. 1 shows the device installed at point A,
The display monitor 21 is of a so-called multi-window display type, and a plurality of video windows 2 are displayed on the screen 22.
3, 24, 25 are provided, and these windows 23, 2
Images 16 of each participant at points B, C, and D are shown at 4 and 25, respectively.
19 and 28 are displayed.

【0008】制御装置13内において、映像/音声入出
力制御部31が通信回線14,テレビカメラ12、マル
チウインドウ拡大/縮小部32及び音声レベル検出部3
3に接続され、マルチウインドウ拡大/縮小部32、マ
ルチウインドウ表示制御部34、マルチウインドウ移動
処理部35、マウス入力処理部36及び音像定位制御部
37が中央制御部38に接続される。音声レベル検出部
33の検出出力は音声レベル制御部39へ出力され、音
声レベル制御部39の出力は音像定位制御部37に出力
される。マウス入力処理部36にマウス41が接続され
る。画面22の左右の両側にスピーカ42,43が配さ
れる。
In the control device 13, a video/audio input/output control section 31 connects a communication line 14, a television camera 12, a multi-window enlargement/reduction section 32, and an audio level detection section 3.
3, and a multi-window enlargement/reduction section 32, a multi-window display control section 34, a multi-window movement processing section 35, a mouse input processing section 36, and a sound image localization control section 37 are connected to the central control section 38. The detection output of the audio level detector 33 is output to the audio level controller 39, and the output of the audio level controller 39 is output to the sound image localization controller 37. A mouse 41 is connected to the mouse input processing section 36. Speakers 42 and 43 are arranged on both the left and right sides of the screen 22.

【0009】カメラ12により撮像された地点Aの参加
者11の映像は映像/音声入出力制御部31、通信回線
14を介して通信相手に送信される。また、通信回線1
4を介して制御装置13に入力された多重化された3地
点の映像、音声は、映像/音声入出力制御部31で3地
点の映像、音声に分離され、映像はマルチウインドウ拡
大/縮小部32を介してマルチウインドウ表示制御部3
4に入力され、音声は音声レベル検出部33、音声レベ
ル出力制御部39を介して音像定位制御部37に入力さ
れる。ここで、地点B,C,Dの映像をそれぞれ映像チ
ャネル1,2,3とし、映像チャネル1,2,3に付随
する音声をそれぞれ音声チャネル1,2,3とする。マ
ルチウインドウ表示制御部34では中央制御部38の指
示の下に、例えばマルチウインドウ表示モニタ21の画
面22に表示されているように、地点Bの参加者像16
、すなわち映像チャネル1を画面22の左側の動画ウイ
ンドウ25に、地点Cの参加者像19、すなわち映像チ
ャネル2を画面22の中央の動画ウインドウ26に、地
点Dの参加者像28、すなわち映像チャネル3を画面2
2の右側の動画ウインドウ27に表示する。
The image of the participant 11 at point A captured by the camera 12 is transmitted to the communication partner via the video/audio input/output control section 31 and the communication line 14. Also, communication line 1
The multiplexed video and audio of the three points inputted to the control device 13 via the video/audio input/output control section 31 are separated into the video and audio of the three points, and the video is sent to the multi-window enlargement/reduction section. Multi-window display control unit 3 via 32
4, and the sound is input to the sound image localization control section 37 via the sound level detection section 33 and the sound level output control section 39. Here, the videos at points B, C, and D are designated as video channels 1, 2, and 3, respectively, and the audio accompanying video channels 1, 2, and 3 are designated as audio channels 1, 2, and 3, respectively. The multi-window display control section 34 displays the participant image 16 at point B under the instructions of the central control section 38, for example, as displayed on the screen 22 of the multi-window display monitor 21.
That is, video channel 1 is placed in the video window 25 on the left side of the screen 22, participant image 19 at point C, ie, video channel 2, is placed in the video window 26 in the center of the screen 22, and participant image 28 at point D, ie, the video channel. 3 to screen 2
2 in the video window 27 on the right side.

【0010】この発明ではウインドウ25に付随する音
声、つまり音声チャネル1を、ウインドウ25からスピ
ーカ42,43までの距離と逆比例的にスピーカ42,
43に分配する。ウインドウ26,27にそれぞれ付随
する音声、つまり音声チャネル2,3も同様に、スピー
カ42,43に分配する。このため中央制御部38は、
音像定位制御部37に、ウインドウ25,26,27そ
れぞれの表示中央水平座標位置と、ウインドウに表示さ
れている映像チャネルに付随する音声のチャネル番号と
を入力する。音像定位制御部37では、入力された各ウ
インドウの表示中央水平座標位置に基づき、そのウイン
ドウに表示されている映像チャネルに付随する音声チャ
ネルの音声出力のスピーカ42,43への分配レベルを
制御する。
In the present invention, the audio accompanying the window 25, that is, the audio channel 1, is transmitted to the speakers 42, 43 in inverse proportion to the distance from the window 25 to the speakers 42, 43.
43. The sounds associated with windows 26 and 27, respectively, audio channels 2 and 3, are similarly distributed to speakers 42 and 43. For this reason, the central control unit 38
The display center horizontal coordinate position of each of the windows 25, 26, and 27 and the audio channel number associated with the video channel displayed in the window are input to the sound image localization control unit 37. The sound image localization control unit 37 controls the distribution level of the audio output of the audio channel associated with the video channel displayed in that window to the speakers 42 and 43 based on the input display center horizontal coordinate position of each window. .

【0011】音声レベル可能範囲を5段階とした場合、
図2Aに示すように画面22を水平方向において5つの
領域■〜■に分割し、領域■を左のスピーカ42側に位
置させ、これら領域■〜■の何れに像(ウインドウ)が
あるかに応じて、その像(ウインドウ)に付随した音声
を、スピーカ42,43へ分配する分配比を決める。こ
の決め方は近いスピーカに大きなレベルが、遠いスピー
カに小さなレベルが供給されるように、図2Bに示すよ
うにする。例えば領域■に位置したウインドウに付随す
る音声はスピーカ42,43に0.75:0.25とな
るように分配し、スピーカ42,43の出力の比はこの
関係となり、地点Aの参加者には領域■からその音声が
発声されているように聞こえる。従って図1の画面22
に表示されている動画ウインドウ25,26,27の表
示中央水平座標位置はそれぞれ領域■、■、■にあるか
ら、動画ウインドウ25に表示されている映像、すなわ
ち映像チャネル1に付随する音声チャネル1の音声レベ
ル比は スピーカ42:スピーカ43=1:0 となる。同様に動画ウインドウ26,27に表示されて
いる映像チャネル2,3に付随する音声チャネル2,3
の音声レベル比はそれぞれ スピーカ42:スピーカ43=0.5:0.5スピーカ
42:スピーカ43=0:1 となる。音像定位制御部37では、この比に基づきスピ
ーカ42,43に出力する音声レベルを変化させて出力
する。このようにして、動画ウインドウ25に表示され
ている動画像に付随する音声チャネル1の音声、すなわ
ち地点Bの参加者の音声は画面22の左側部分から発声
しているように参加者11に聞こえる。同様に、動画ウ
インドウ26,27に表示されている動画像に付随する
音声チャネル2,3の音声、すなわち地点C,Dの各参
加者の音声はそれぞれ、画面22の中央部、右側部分か
らそれぞれ発声されているかのように聞こえる。このよ
うにして、マルチウインドウで表示されている会議参加
者の表示位置とみかけ上の音声発声位置とが一致してい
るため、従来の技術に比べて出力されている音声が何れ
の参加者からのものであるかの認識が容易になるため、
良好なテレビ会議が可能となる。
[0011] When the possible audio level range is set to five levels,
As shown in FIG. 2A, the screen 22 is divided horizontally into five regions ■ to ■, and the region ■ is located on the left speaker 42 side. Accordingly, a distribution ratio for distributing the audio accompanying the image (window) to the speakers 42 and 43 is determined. This determination is made as shown in FIG. 2B, so that a louder level is supplied to the closer speaker and a lower level is supplied to the farthest speaker. For example, the audio accompanying the window located in area ■ is distributed to the speakers 42 and 43 at a ratio of 0.75:0.25, and the ratio of the outputs of the speakers 42 and 43 is in this relationship. It sounds like the sound is coming from area ■. Therefore, screen 22 in Figure 1
Since the display center horizontal coordinate positions of the video windows 25, 26, and 27 displayed in the video windows 25, 26, and 27 are in the areas ■, ■, and ■, respectively, the video displayed in the video window 25, that is, the audio channel 1 associated with the video channel 1 The audio level ratio of speaker 42:speaker 43 is 1:0. Similarly, audio channels 2 and 3 associated with video channels 2 and 3 displayed in video windows 26 and 27
The audio level ratio of speakers 42:speakers 43=0.5:0.5 and speakers 42:speakers 43=0:1, respectively. The sound image localization control section 37 changes and outputs the sound level output to the speakers 42 and 43 based on this ratio. In this way, the voice of the audio channel 1 accompanying the video image displayed on the video window 25, that is, the voice of the participant at point B, can be heard by the participant 11 as if it were coming from the left side of the screen 22. . Similarly, the sounds of audio channels 2 and 3 accompanying the moving images displayed on the video windows 26 and 27, that is, the sounds of each participant at points C and D, are respectively transmitted from the center and right side of the screen 22. It sounds like it's being spoken. In this way, the display position of the conference participant displayed in the multi-window matches the apparent voice output position, so compared to conventional technology, the output voice can be heard from which participant. This makes it easier to recognize whether the
Good video conferencing becomes possible.

【0012】図3Aに示すようにスピーカ42,43の
中央部にスピーカ44を設け、つまり3つのスピーカを
画面22の下側で水平方向に配列し、音声レベル可変範
囲を7段階とする場合は、画面22を水平方向に7つの
領域■〜■に分割し、各領域にあるウインドウの像に付
随する音声をスピーカ42,43,44から図3Bに示
すような分配比で出力させるようにすればよい。この場
合も図2Aと同様に表示中央水平座標位置に応じて、ス
ピーカ42,43,44に出力する音声レベルを変化さ
せて出力する。3スピーカを使用し、また音声レベル可
変範囲を7段階としたため、より細かい制御が可能にな
り、上述した場合と同様に、出力されている音声の発声
者の認識がより容易になり、良好なテレビ会議が可能と
なる。
As shown in FIG. 3A, if a speaker 44 is provided in the center of the speakers 42 and 43, that is, three speakers are arranged horizontally below the screen 22, and the audio level variable range is set to seven levels, , the screen 22 is horizontally divided into seven regions ■ to ■, and the audio accompanying the image of the window in each region is output from the speakers 42, 43, and 44 at a distribution ratio as shown in FIG. 3B. Bye. In this case as well, the audio level output to the speakers 42, 43, and 44 is changed and outputted according to the display center horizontal coordinate position, as in FIG. 2A. By using 3 speakers and setting the audio level variable range to 7 levels, more detailed control is possible, and as in the case described above, it is easier to recognize the speaker of the output audio, making it possible to achieve good results. Video conferencing will be possible.

【0013】次に、マウス41を使用して、マルチウイ
ンドウ表示モニタ21に表示されている動画マルチウイ
ンドウを移動させた場合について説明する。マウス41
によるウインドウ移動操作は例えば、マウス41のスイ
ッチを操作して、画面22の一部に機能メニューウイン
ドウを表示させ、その項目(拡大、縮小、移動、消去な
ど)中の「移動」をマーカにより選択クリックし、その
後、移動したいウインドウを同様にしてクリックし、そ
の後、移動させたい位置にマーカを移動させてクリック
すればよい。マウス41を操作し、例えばウインドウ2
5を画面22の中央付近へ移動させたとする。図2Cは
動画ウインドウ25を中央付近に移動させた状態を示す
。まず、マウス41により移動されるウインドウが選択
され、次にマウスを操作してマーカを所望の位置に移動
させる。これによりマウス41により入力されたデータ
はマウス入力処理部36にて移動座標値として中央制御
部38に入力される。中央制御部38ではその移動座標
値をマルチウインドウ移動処理部35に入力し、マルチ
ウインドウ移動処理部35にてその移動座標値に基づき
動画ウインドウの移動処理を行う。移動されたこの動画
ウインドウはマルチウインドウ表示制御部34に入力さ
れ、動画ウインドウ25をマーカの位置に表示させる。
Next, a case will be described in which the mouse 41 is used to move the moving image multi-window displayed on the multi-window display monitor 21. mouse 41
To move a window, for example, operate a switch on the mouse 41 to display a function menu window on a part of the screen 22, and select "Move" among the items (enlargement, reduction, movement, deletion, etc.) with a marker. Click, then click in the same way on the window you want to move, then move the marker to the position you want to move and click. Operate the mouse 41 to open window 2, for example.
5 is moved to near the center of the screen 22. FIG. 2C shows a state in which the video window 25 has been moved to near the center. First, the window to be moved is selected using the mouse 41, and then the mouse is operated to move the marker to a desired position. As a result, the data input using the mouse 41 is input to the central control unit 38 as movement coordinate values by the mouse input processing unit 36. The central control unit 38 inputs the movement coordinate value to the multi-window movement processing unit 35, and the multi-window movement processing unit 35 performs movement processing of the video window based on the movement coordinate value. This moved video window is input to the multi-window display control unit 34, and the video window 25 is displayed at the marker position.

【0014】中央制御部38は、同時にその移動座標値
を音像定位制御部37に入力し、音像定位制御部37で
はその移動座標値に基づき、移動した動画ウインドウ2
5に付随する音声のスピーカ42,43への供給分配比
を図2Bに従って変化させる。例えば、図2Cに示す位
置に動画ウインドウ25が移動された場合、動画ウイン
ドウ25に付随する音声チャネルの音声、すなわち地点
Bの参加者の音声は画面22の中央位置から発声されて
いるかのようになる。このようにして、マルチウインド
ウで表示されている動画像の表示位置を任意の位置に移
動することが可能で、この移動に応じてスピーカ42,
43から出力され、音声出力レベル比を変化させること
により、マルチウインドウで表示されている会議参加者
の表示位置と音声発声位置とが一致されて出力される。 これは、実際の会議などでは、席を移動する場合に相当
し、テレビ会議においても、席の移動を模擬した状態を
実現しているため、従来の技術に比べて、より臨場感の
あるテレビ会議が可能となる。
The central control unit 38 simultaneously inputs the movement coordinate value to the sound image localization control unit 37, and the sound image localization control unit 37 adjusts the moving video window 2 based on the movement coordinate value.
The supply/distribution ratio of the audio accompanying 5 to the speakers 42 and 43 is changed according to FIG. 2B. For example, when the video window 25 is moved to the position shown in FIG. Become. In this way, the display position of the moving image displayed in the multi-window can be moved to an arbitrary position, and the speaker 42,
43, and by changing the audio output level ratio, the display position of the conference participant displayed in the multi-window and the audio output position are matched and output. This corresponds to moving seats in a real meeting, and it also simulates the movement of seats in a video conference, creating a more realistic TV than with conventional technology. Meetings will be possible.

【0015】次に動画ウインドウを拡大・縮小する場合
について説明する。マウス41により所望の動画ウイン
ドウを選択し、そのウインドウの枠を所望の大きさに変
化させる操作をすると、中央制御部38はマウス41に
より決定されたその動画ウインドウの大きさ情報をマル
チウインドウ拡大/縮小部32、音声レベル制御部39
に転送する。マルチウインドウ拡大/縮小部32では、
この動画ウインドウの大きさ情報に基づき動画ウインド
ウの大きさを拡大・縮小させ、マルチウインドウ表示制
御部34に転送し表示する。音声レベル制御部39では
転送された動画ウインドウの大きさ情報に基づきその動
画ウインドウに付随する音声のレベルを増減させる。こ
れにより、縮小表示されている動画ウインドウの音声は
小さな音量で、拡大表示されている動画ウインドウの音
声は大きな音量で出力されるため、ユーザが注目したい
ために拡大表示した動画ウインドウの音声は自動的に増
大され、音声にも注目することができ、また、利用者が
あまり会議に関係ないと思われる動画像を縮小表示した
動画ウインドウの音声は自動的に減少され、他の重要な
音声に注目することができ、ユーザインタフェースのよ
いテレビ会議が可能になる。
Next, the case of enlarging/reducing the moving image window will be explained. When a desired video window is selected using the mouse 41 and an operation is performed to change the frame of the window to a desired size, the central control unit 38 uses the size information of the video window determined using the mouse 41 to perform multi-window enlargement/ Reduction section 32, audio level control section 39
Transfer to. In the multi-window enlargement/reduction section 32,
Based on this video window size information, the size of the video window is enlarged or reduced, and transferred to the multi-window display control unit 34 for display. The audio level control unit 39 increases or decreases the level of the audio accompanying the video window based on the transferred video window size information. As a result, the audio of the video window that is reduced in size is output at a low volume, and the audio of the video window that is enlarged is output at a high volume, so the audio of the video window that is enlarged to attract the user's attention is automatically output. In addition, the audio in the video window that displays a reduced video image that the user thinks is not very relevant to the meeting is automatically reduced, allowing the user to focus on other important audio. This makes it possible to conduct video conferences that attract attention and have a good user interface.

【0016】また、逆に、受信した音声レベルに応じて
、該当する動画ウインドウを拡大・縮小する場合につい
て説明する。音声レベル検出部33にて受信した音声レ
ベルを検出し、あるしきい値以上の音声レベルの動画ウ
インドウを拡大表示する。また、あるしきい値以下の音
声レベルの動画ウインドウを縮小表示する事により、ユ
ーザインタフェースのよいテレビ会議、テレビ電話が可
能になる。すなわち、たとえば地点Bの参加者が他の参
加者に注意を喚起するために大きな声を発声した場合、
この音声は音声レベル検出部33にてしきい値以上の音
声レベルとして判断し、地点Bの参加者表示のためのウ
インドウ25を拡大表示して表示する。また、たとえば
地点Cの参加者がしばらくの間会話に参加せず、一定の
時間以上黙っていた場合、その動画ウインドウ26を縮
小表示する。
[0016] Conversely, a case will be explained in which the corresponding video window is enlarged or reduced in accordance with the received audio level. The received audio level is detected by the audio level detection unit 33, and a video window with an audio level above a certain threshold value is displayed in an enlarged manner. Furthermore, by reducing the size of a video window with an audio level below a certain threshold, it becomes possible to conduct video conferences and video calls with a good user interface. In other words, for example, if a participant at point B makes a loud noise to draw the attention of other participants,
The sound level detecting section 33 determines that the sound level is higher than the threshold value, and the window 25 for displaying the participants at point B is enlarged and displayed. Further, for example, if the participant at point C does not participate in the conversation for a while and remains silent for more than a certain period of time, the video window 26 is displayed in a reduced size.

【0017】ウインドウ形式で2つの動画像を表示する
システムとしては、親子画面方式で表示する方式がある
。この親子画面方式のシステムにこの発明を適用した例
について図4を参照して説明する。親子画面表示モニタ
51の画面22には、画面一杯のウインドウ(親画面)
52に例えばあるチャネルの画像が表示され、画面22
の一部、つまりウインドウ52内の一部にウインドウ(
子画面)53が設けられ、これに他のチャネルの画像が
表示される。この親子画面表示モニタ51に対する親子
画面表示制御部54には映像/音声入力制御部55、親
子画面表示制御部56、子画面移動処理部57、音声レ
ベル出力制御部58、遠隔操作器入力処理部59及び中
央制御部61が相互に接続されて設けられる。映像/音
声入力部制御55に入力された映像、音声はそれぞれ親
子画面表示制御部56、音声レベル出力制御部58に入
力される。画面観察者は、遠隔操作器62により子画面
53の表示位置を指示し、指示されたデータは遠隔操作
器入力処理部59に転送される。遠隔操作器入力処理部
59では、指示された子画面表示位置情報を中央制御部
61に入力する。中央制御部61では入力された子画面
表示位置情報を親子画面表示制御部56に転送し、親子
画面表示制御部56では、親画面52の中に子画面53
を埋め込んで親子画面表示モニタ51に表示する。同時
に中央制御部61は、子画面表示位置情報を音声レベル
出力制御部58に入力する。音声レベル出力制御部58
では、子画面表示位置情報に基づき、親画面、子画面の
音声出力レベルを制御する。音声出力レベルの制御方は
図1の実施例と同様である。たとえば、親子画面が図4
の画面22に示しているように表示されている場合、つ
まり子画面53が右側部分に表示されている場合は親画
面52の音声は中央から、子画面53の音声は右側から
聞こえるようにされる。
[0017] As a system for displaying two moving images in a window format, there is a system that displays them in a parent-child screen format. An example in which the present invention is applied to this parent-child screen system will be described with reference to FIG. 4. The screen 22 of the parent-child screen display monitor 51 has a window (main screen) that fills the entire screen.
For example, an image of a certain channel is displayed on the screen 22.
In other words, a part of the window 52 has a window (
A sub-screen) 53 is provided, on which images of other channels are displayed. The parent and child screen display control section 54 for this parent and child screen display monitor 51 includes a video/audio input control section 55, a parent and child screen display control section 56, a child screen movement processing section 57, an audio level output control section 58, and a remote controller input processing section. 59 and a central control section 61 are provided and connected to each other. The video and audio input to the video/audio input unit control 55 are input to a parent-child screen display control unit 56 and an audio level output control unit 58, respectively. The screen viewer instructs the display position of the child screen 53 using the remote controller 62, and the instructed data is transferred to the remote controller input processing section 59. The remote controller input processing section 59 inputs the instructed sub-screen display position information to the central control section 61 . The central control unit 61 transfers the input child screen display position information to the parent and child screen display control unit 56 , and the parent and child screen display control unit 56 displays the child screen 53 in the parent screen 52 .
is embedded and displayed on the parent-child screen display monitor 51. At the same time, the central control unit 61 inputs the child screen display position information to the audio level output control unit 58. Audio level output control section 58
Now, the audio output levels of the parent screen and the child screen are controlled based on the child screen display position information. The method of controlling the audio output level is similar to the embodiment shown in FIG. For example, the parent and child screen is shown in Figure 4.
When the screen 22 is displayed as shown in FIG. Ru.

【0018】このようにして、親子画面方式で2つの動
画像を同時に表示する場合、子画面53の表示位置に応
じて2台のスピーカ42,43に出力する親、子画面の
音声レベルを制御するため、同時に親、子画面の音声を
聞くことができ、また、どちらの音声が親画面からまた
は子画面からかを容易に認識できる利点がある。なおこ
の親子画面方式では画像(ウインドウ)に付随する音信
号としては音声に限らず音楽などの場合もある。上述で
は動画を表示したが静止画像を表示する場合にもこの発
明を適用できる。上述では複数のスピーカを横方向(水
平方向)に配列し、これらから出力される音のレベル比
を制御したが、ウインドウが上下に配列される場合はス
ピーカを縦方向(垂直方向)に配列して、これらから出
力される音のレベル比を制御して音像位置を、縦方向に
おいてウインドウと対応して定位させてもよい。更には
スピーカを画面の周辺全体に分散配置し、画面内のウイ
ンドウの2次位置と対応して、音像を定位させるように
することもできる。
In this way, when two moving images are displayed simultaneously using the parent and child screen method, the audio levels of the parent and child screens output to the two speakers 42 and 43 are controlled according to the display position of the child screen 53. Therefore, it is possible to listen to the voices of the parent screen and the child screen at the same time, and there is an advantage that it is possible to easily recognize which voice is coming from the parent screen or the child screen. Note that in this parent-child screen method, the sound signal accompanying the image (window) is not limited to audio, but may also be music. Although moving images are displayed in the above description, the present invention can also be applied to displaying still images. In the above, multiple speakers were arranged horizontally (horizontally) and the level ratio of the sound output from them was controlled, but if the windows are arranged vertically, the speakers should be arranged vertically (vertically). Then, the sound image position may be localized in the vertical direction in correspondence with the window by controlling the level ratio of the sounds output from these. Furthermore, the speakers may be distributed throughout the periphery of the screen, and the sound image may be localized in correspondence with the secondary position of the window within the screen.

【0019】[0019]

【発明の効果】以上説明したようにマルチウインドウ表
示方式や親子画面方式などで複数のウインドウに各別の
画像を表示できるシステムにおいて、表示されている複
数の画像の表示位置に応じてその複数動画像に付随する
音のレベルを変化させ、n個のスピーカへ出力するため
、その結果として、画像が表示されている位置から音が
聞こえてくるから、従来の技術に比べて出力されている
音声の発声者の認識が容易になるため、良好なテレビ会
議が可能となり、あるいは親子画面表示における子画面
の音を識別して聞くことができる。
Effects of the Invention As explained above, in a system that can display different images in multiple windows using a multi-window display method, a parent-child screen method, etc., multiple videos of multiple images can be displayed depending on the display position of the multiple images being displayed. Since the level of the sound accompanying the image is changed and output to n speakers, as a result, the sound is heard from the position where the image is displayed, so the sound output is lower than that of conventional technology. Since it becomes easier to recognize the speaker, it becomes possible to have a good video conference, or to identify and listen to the sound of the child screen in parent and child screen display.

【0020】また、複数表示されているウインドウの一
つに注目するためにウインドウを拡大・縮小する場合、
拡大・縮小率に応じてそのウインドウに付随する音信号
のレベルを増減することにより、よりユーザインタフェ
ースのよいテレビ会議が可能になる。逆に、受信した音
声レベルに応じて、そのウインドウを拡大・縮小表示す
ることにより、注目されたい場合には大きな声で呼びか
けて拡大表示させ、会議の途中でしばらくの間離席する
ような場合、そのウインドウを縮小表示させることによ
り表示画面を有効に使用し、ユーザインタフェースの良
いテレビ会議が可能となる。
[0020] Furthermore, when enlarging or reducing a window in order to focus on one of the multiple windows displayed,
By increasing or decreasing the level of the sound signal accompanying the window according to the enlargement/reduction ratio, a video conference with a better user interface becomes possible. Conversely, by enlarging or reducing the display of the window depending on the received audio level, if you want to attract attention, you can call out loud and enlarge the display, and if you leave your seat for a while during the meeting. By displaying the window in a reduced size, the display screen can be used effectively and a video conference with a good user interface can be held.

【0021】また、この発明を親子画面表示方式に適用
した場合、同時に親、子画面の音を聞くことができ、ま
た、どちらの声が親画面からまたは子画面からかを容易
に認識できる利点がある。
Further, when the present invention is applied to a parent and child screen display method, there is an advantage that the sound of the parent and child screens can be heard at the same time, and it is possible to easily recognize which voice is coming from the parent screen or the child screen. There is.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】この発明をテレビ会議の表示装置における音声
出力方法に適用した実施例を示すブロック図。
FIG. 1 is a block diagram showing an embodiment in which the present invention is applied to an audio output method in a display device for a video conference.

【図2】Aは図1において音声レベル可変範囲を5段階
とした場合の画面の分割領域を示す図、Bはその各領域
に付随する音声のスピーカ42,43からの出力レベル
比を示す図、Cはウインドウ25を図1の状態から中央
部に移動させた状態を示す図。
2A is a diagram showing divided areas of the screen when the audio level variable range is set to five levels in FIG. 1, and B is a diagram showing the output level ratio of audio from speakers 42 and 43 associated with each area. , C is a diagram showing a state in which the window 25 has been moved from the state in FIG. 1 to the center.

【図3】Aはスピーカを3つとし、音声レベル可変範囲
を7段階とした場合の画面の分割領域を示す図、Bはそ
の各領域に付随する音声のスピーカ42,43,44か
らの出力レベル比を示す図。
[Fig. 3] A is a diagram showing the divided areas of the screen when there are three speakers and the audio level variable range is set to seven levels, and B is the output from the audio speakers 42, 43, and 44 associated with each area. A diagram showing level ratios.

【図4】この発明を親子画面方式における音出力方法に
適用した実施例を示すブロック図。
FIG. 4 is a block diagram showing an embodiment in which the present invention is applied to a sound output method in a parent-child screen system.

【図5】従来のテレビ会議システムのモニタ装置を示す
ブロック図。
FIG. 5 is a block diagram showing a monitor device of a conventional video conference system.

【図6】従来のテレビ会議システムのモニタ装置の他の
ものを示すブロック図。
FIG. 6 is a block diagram showing another monitor device of the conventional video conference system.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】  1画面上に複数のウインドウを設け、
これら各ウインドウに各別の画像を表示する表示装置に
ついて、上記画像に付随した音信号を出力する方法にお
いて、上記画面の周辺に複数のスピーカを分散配置し、
これらスピーカに、これらから上記ウインドウまでの距
離に応じて逆比例的にそのウインドウの画像に付随した
音信号を分配して音信号を出力することを特徴とする複
数画像ウインドウ表示用音信号出力方法。
[Claim 1] Provide multiple windows on one screen,
Regarding a display device that displays different images in each of these windows, in a method of outputting a sound signal accompanying the image, a plurality of speakers are distributed around the screen,
A sound signal output method for displaying a plurality of image windows, characterized in that the sound signals accompanying the images of the windows are distributed to these speakers in inverse proportion to the distance from these speakers to the window, and the sound signals are outputted. .
【請求項2】  上記ウインドウの拡大縮小に応じて、
そのウインドウに付随した音信号のレベルを大小に制御
することを特徴とする請求項1記載の複数画像ウインド
ウ表示用音信号出力方法。
Claim 2: Depending on the scaling of the window,
2. The method of outputting a sound signal for displaying a plurality of image windows according to claim 1, further comprising controlling the level of the sound signal associated with the window.
JP3005243A 1991-01-21 1991-01-21 Sound signal output method for displaying multiple image windows Expired - Fee Related JP3036088B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3005243A JP3036088B2 (en) 1991-01-21 1991-01-21 Sound signal output method for displaying multiple image windows

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3005243A JP3036088B2 (en) 1991-01-21 1991-01-21 Sound signal output method for displaying multiple image windows

Publications (2)

Publication Number Publication Date
JPH04237288A true JPH04237288A (en) 1992-08-25
JP3036088B2 JP3036088B2 (en) 2000-04-24

Family

ID=11605764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3005243A Expired - Fee Related JP3036088B2 (en) 1991-01-21 1991-01-21 Sound signal output method for displaying multiple image windows

Country Status (1)

Country Link
JP (1) JP3036088B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165173A (en) * 1992-11-17 1994-06-10 Nippon Telegr & Teleph Corp <Ntt> System for attaining virtual society
JPH08163527A (en) * 1994-12-09 1996-06-21 Nec Corp Terminal equipment for electronic conference
EP0773677A2 (en) * 1995-11-11 1997-05-14 Deutsche Telekom AG Method for locally combining optical and acoustic signals
JPH1049342A (en) * 1996-04-25 1998-02-20 Fujitsu Ltd Device and method for scheduling speech session
JPH11234640A (en) * 1998-02-17 1999-08-27 Sony Corp Communication control system
WO2002058390A1 (en) * 2001-01-17 2002-07-25 Ericsson Inc. Adaptive display for video conferences
JP2002247475A (en) * 2001-02-14 2002-08-30 Matsushita Electric Ind Co Ltd Video display device
EP1425909A1 (en) * 2001-08-07 2004-06-09 Polycom, Inc. System and method for high resolution videoconferencing
JP2008021043A (en) * 2006-07-11 2008-01-31 Sharp Corp Display apparatus, its sound output method and display system
WO2009060498A1 (en) * 2007-11-06 2009-05-14 Fujitsu Limited Inter-multipoint voice conversation apparatus
JP2009177827A (en) * 2005-09-07 2009-08-06 Polycom Inc Spatially correlated audio in multipoint videoconferencing
JP2009217752A (en) * 2008-03-12 2009-09-24 Kyocera Corp Information terminal
JP2010004573A (en) 2009-10-05 2010-01-07 Kyocera Corp Communication terminal, and display method thereof
JP2010282294A (en) * 2009-06-02 2010-12-16 Canon Inc Information processor, information processing method, and program
JP2011514043A (en) * 2008-02-14 2011-04-28 マイクロソフト コーポレーション Technology for generating visual compositions for multimedia conference events
JP2012195661A (en) * 2011-03-15 2012-10-11 Nec Corp Voice portlet providing system and voice portlet providing method
US8487956B2 (en) 2005-11-29 2013-07-16 Kyocera Corporation Communication terminal, system and display method to adaptively update a displayed image
JP2017103801A (en) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド Communication terminal, communication terminal control method, and communication terminal control program
JP2022048722A (en) * 2020-09-15 2022-03-28 Kddi株式会社 Image processing apparatus, image processing method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165173A (en) * 1992-11-17 1994-06-10 Nippon Telegr & Teleph Corp <Ntt> System for attaining virtual society
JPH08163527A (en) * 1994-12-09 1996-06-21 Nec Corp Terminal equipment for electronic conference
EP0773677A2 (en) * 1995-11-11 1997-05-14 Deutsche Telekom AG Method for locally combining optical and acoustic signals
EP0773677A3 (en) * 1995-11-11 2000-03-22 Deutsche Telekom AG Method for locally combining optical and acoustic signals
JPH1049342A (en) * 1996-04-25 1998-02-20 Fujitsu Ltd Device and method for scheduling speech session
JPH11234640A (en) * 1998-02-17 1999-08-27 Sony Corp Communication control system
WO2002058390A1 (en) * 2001-01-17 2002-07-25 Ericsson Inc. Adaptive display for video conferences
JP2002247475A (en) * 2001-02-14 2002-08-30 Matsushita Electric Ind Co Ltd Video display device
US8077194B2 (en) 2001-08-07 2011-12-13 Polycom, Inc. System and method for high resolution videoconferencing
EP1425909A4 (en) * 2001-08-07 2006-10-18 Polycom Inc System and method for high resolution videoconferencing
EP1425909A1 (en) * 2001-08-07 2004-06-09 Polycom, Inc. System and method for high resolution videoconferencing
JP2012213214A (en) * 2005-09-07 2012-11-01 Polycom Inc Spatially correlated audio in multipoint videoconference
JP2009177827A (en) * 2005-09-07 2009-08-06 Polycom Inc Spatially correlated audio in multipoint videoconferencing
US8487956B2 (en) 2005-11-29 2013-07-16 Kyocera Corporation Communication terminal, system and display method to adaptively update a displayed image
JP4750635B2 (en) * 2006-07-11 2011-08-17 シャープ株式会社 Display system
JP2008021043A (en) * 2006-07-11 2008-01-31 Sharp Corp Display apparatus, its sound output method and display system
US8264981B2 (en) 2007-11-06 2012-09-11 Fujitsu Limited Inter-multipoint voice conversation apparatus
WO2009060498A1 (en) * 2007-11-06 2009-05-14 Fujitsu Limited Inter-multipoint voice conversation apparatus
JP2011514043A (en) * 2008-02-14 2011-04-28 マイクロソフト コーポレーション Technology for generating visual compositions for multimedia conference events
JP2009217752A (en) * 2008-03-12 2009-09-24 Kyocera Corp Information terminal
JP2010282294A (en) * 2009-06-02 2010-12-16 Canon Inc Information processor, information processing method, and program
JP2010004573A (en) 2009-10-05 2010-01-07 Kyocera Corp Communication terminal, and display method thereof
JP2012195661A (en) * 2011-03-15 2012-10-11 Nec Corp Voice portlet providing system and voice portlet providing method
JP2017103801A (en) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド Communication terminal, communication terminal control method, and communication terminal control program
JP2022048722A (en) * 2020-09-15 2022-03-28 Kddi株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP3036088B2 (en) 2000-04-24

Similar Documents

Publication Publication Date Title
JPH04237288A (en) Audio signal output method for plural-picture window display
US8300078B2 (en) Computer-processor based interface for telepresence system, method and computer program product
US8355040B2 (en) Telepresence conference room layout, dynamic scenario manager, diagnostics and control system and method
US6330022B1 (en) Digital processing apparatus and method to support video conferencing in variable contexts
US6208373B1 (en) Method and apparatus for enabling a videoconferencing participant to appear focused on camera to corresponding users
US5859663A (en) Audio control system for video teleconferencing
JPH05103324A (en) Multi-point video conference controlling device
US20130027502A1 (en) Method, computer-readable storage medium, and apparatus for modifying the layout used by a video composing unit to generate a composite video signal
EP2024852A2 (en) System and method for controlling a telepresence system
WO2010041954A1 (en) Method, device and computer program for processing images during video conferencing
WO1994007327A1 (en) Method and apparatus for on-screen camera control in video-conference equipment
JPH08298653A (en) Video conference system and its terminal equipment
JPH0537933A (en) Inter-multiplace video conference system
JPH04339484A (en) Remote conference device
JPH1056626A (en) Video conference system
JPH10150648A (en) Videoconference system
JPH08294103A (en) Communication terminal equipment and communication system
JPH01206765A (en) Video conference system
JPH08125760A (en) Information processor
JP2005110103A (en) Voice normalizing method in video conference
KR20110090001A (en) Method and apparatus for video conferencing
JPH08251566A (en) Television conference device
JPH09233446A (en) Video conference system
JPH02265346A (en) Multi-point remote conference system
JPH07162822A (en) Multi-spot conference speaker display system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees